Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Für alle, die eine alternative Darstellung bevorzugen bieten wir unser Programm-PDF an:
» Zum PDF-Download
Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.
For the work we do in the long-term-vision-labs and strategy team for the Technology & Innovation board area at SAP is one of the playgrounds for the title question. These topics are good, because they generate exiting and abundant questions, that we believe should be asked by everyone.
How does the future work, the mechanics of change? What is the future of human work and our interactions with machines and each other? Is industrialization of space and 3d printed organs really a “thing” and how do you relate to these? What are the methods to innovate desirable futures? How do you structure such a vast and complex fabric of possibilities in your domain, team, business, boardroom? How long is the history of the future and how does that affect our fear and counter reactions to it in socio-political movement? Most importantly, who designs the future, that you your community will live in?
We talk about change, but what are the mechanics and the dynamics behind it? How fast is it? What it means to be an innovator, is transforming faster than before, from classic product and service definition of the superficial to computational system design of everything, including social and political systems, deeply rooted in a space of challenges and promises between cutting edge tech and humanism. In an exponential and converging digital-fueled future, we design a relationship, a behaviour, that the product will follow.
What comes before strategy? We love to act on strategies, derive tactics, execute and operate, it is our psychological bias, we love to do what we are good at. But how do we derive a strategy? From what point of view, what narratives, what builds up a “Future fabric” that these narratives a woven from? And who does it in your enterprise? We will have, high level look at how we build a desirable future with these questions in mind, and also what we in our labs consider to be a desirable future of work, at least for the coming decade.
This exponential change is our innovation brief and the stakes are high, It is just too important to be left only to... any single team. Technology is the human evolution, the prior named HuMachine creates a playground for “Human centered“-adventure, this opens new worlds for our imagination in a time when “now” has never been so temporary. Bringing these thoughts together we need to answer the question “What is human, and what is work in a superhuman future?”
Main chapters
Over the last few decades, ETL and specially Datawarehouse testing has been gaining quite a bit of traction. The reason for that traction? The modern enterprise's dependency on data. This dependency calls for the right testing strategy to ensure the quality and correctness of the provided data. Further on the drive to lower 'time to data' and overall costs is putting high pressure on Test specialists to increase efficiency in this area. In this presentation I want to show you our journey to daily regression in our enterprise data warehouse.
Target Audience: Testers, Test Managers, Project Leaders, Decision Makers, Data Engineers, Managers
Prerequisites: none
Level: Basic
Extended Abstract:
Over the last few decades, ETL and specially data warehouse testing has been gaining quite a bit of traction. Especially given the emergence of Agile and DevOps as top trends in the software development industry. The reason for that traction? The modern enterprise's dependency on data.
This dependency calls for the right testing strategy and execution to ensure the quality and correctness of the provided data.
Further on the drive to lower 'time to data' and overall costs is putting high pressure on Test specialists to increase efficiency in this area.
In this presentation I want to show you our journey to daily regression in our data warehouse.
We improved our processes and changed our testing approach. We started with a quarterly regression test which took a whole testing team of 10 people 2 months to finish.
Now we do the same on a daily basis within our agile team.
Big data is not the biggest change in the IT industry but data usage. To become more data driven and to succeed with their digital transformation, organizations are using their data more extensively to improve their business and decision processes. Unfortunately, it is hard for current data delivery systems to support new styles of data usage, such as data science, real-time data streaming analytics, and managing heavy data ingestion loads. This session discusses a real big-data-ready data architecture.
Target Audience: Data architects, data warehouse designers, IT architects, analysts, enterprise architects, solutions architects
Prerequisites: Some understanding of data architectures
Level: Advanced
Extended Abstract:
It is not big data that is the biggest change in the IT industry, it is data usage that has changed most drastically the last ten years. To become more data driven and to succeed with their digital transformation, organizations are using their data more extensively to improve their business and decision processes. This may mean that more data needs to be collected resulting in big data systems, but the goal remains to do more with data. Unfortunately, current data delivery systems don't have the right characteristics for supporting the requirements of big data systems, such as supporting data science, handling massive data streaming workloads, managing heavy data ingestion loads, and so on. Additionally, many organizations that are developing big data systems, are developing isolated data delivery systems, such as an isolated data lake, an isolated data streaming system, an isolated data services system, and so on. This avalanche of data delivery systems is not beneficial to the organization. The wheel is invented over and over again. It's time to design real big-data-ready data architectures. This session discusses such an architecture, including the supporting technologies, pros and cons.
Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.
Der Vortrag präsentiert aktuelle Entwicklungen in der Anwendung von KI im Versicherungsbereich. Konkrete Einsatzszenarien und Erfahrungen aus der Praxis zeigen die Potenziale für den Einsatz von KI. Aktuelle Chancen und Herausforderungen des Einsatzes von KI in Unternehmen werden diskutiert, insbesondere die zunehmenden Erwartungen an eine transparente und faire KI.
Zielpublikum: Softwareentwickler, Architekten, Projektleiter in der Finanzbranche, Manager in der Finanzbranche
Voraussetzungen: Grundsätzliche Kenntnisse über die Methoden der Künstlichen Intelligenz
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Ein Tischfußball wurde mittels Kamera, Sensoren und Computer digitalisiert und liefert nun Spielanalysen in Echtzeit. Der interaktive Workshop, aufgeteilt in einen theoretischen und einen praktischen Teil, erläutert und erklärt anschaulich, wie hier eine 'lernende Bildverarbeitung' mittels Algorithmus YOLO (You Only Look Once) und Skriptsprache Python programmiert wurde. Darüber hinaus gibt der Workshop einen Ausblick auf die Anwendung von Bilderkennung in einem Business Kontext.
Zielpublikum: alle, die an Machine Learning, Bildverarbeitung und Objekterkennung interessiert sind, Entwickler
Voraussetzungen: Scripting-Grundlagen in Python und statistisches Grundwissen sind von Vorteil und natürlich Interesse
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Vorbemerkung:
Zur anschaulichen Erklärung von Themen wie KI, Machine Learning oder Datastreaming hat PROCON IT einen Kickertisch mit Highspeedkamera und Sensoren versehen und ihn so digitalisiert. Dieser digitalisierte Kicker ist nun in der Lage, das Spiel live zu verfolgen und verschiedene Dinge ebenfalls live auszuwerten, bspw. wird eine Headmap gezeigt, der Spielstand wiedergegeben, die Schussgeschwindigkeit bestimmt.
Wie kann ein System über Bilder einer Highspeedkamera, die es von einem Tischfußballspiel macht, in Echtzeit Daten wie Ballgeschwindigkeit oder eine Headmap der aktuellen Partie generieren? Das System muss gelernt haben, was auf dem Bild der Ball ist, was die Spieler sind und zu welchem Team die Spieler gehören. Der interaktive Workshop führt nach einer kurzen theoretischen Einführung die Teilnehmer mitten in die Praxis der Bildverarbeitung. Gemeinsam werden u.a. Bilder klassifiziert, ein Modell trainiert und die Ergebnisdaten ausgewertet. Die Teilnehmer lernen dabei, wie dies mithilfe der Skriptsprache Python und dem Algorithmus YOLO in der Praxis umgesetzt werden kann. Gemeinsam wird anschließend die Möglichkeiten von Bilderkennung in einem Business Kontext erörtert.
Data volumes are exploding, and companies are striving to use advanced analytics for more data-driven insights and self-learning systems. Enabling scalable data onboarding and analytics delivery processes with little human intervention but strong governance is key to extract value from Big Data and Analytics successfully. The CC CDQ has developed a framework for governing Big Data and Analytics in close collaboration with industry partners. The framework supports practitioners to setup processes, roles and tools to scale analytics use cases.
Target Audience: Analytics Manager, Data Manager, Project Leader
Prerequisites: Basic knowledge and some experience in analytics or data management
Level: Basic
Using distributed databases across various microservices will be explained based on a research project example. The presentation elaborates of how to achieve data consistency across microservices, how to communicate using message brokers, how to scale the microservices and achieve high application availability. Container virtualization and orchestration are technology basis for the solution. The project example shows of how to build an Artificial Intelligence (AI) solution – as a service!
Target Audience: Data Engineer, Data Scientist, Project leader, Architects
Prerequisites: Common understanding of database technology and architecture
Level: Advanced
Extended Abstract:
Developing microservices have various advantages compared to traditional monolith approach. Loose coupled microservices enables smaller teams to develop independently and using CI/CD at a daily basis. Microservices can be scaled independently using different database technologies optimised for particular use cases. The microservices are fault isolated so particular failures will not result in an overall outage.
But how to ensure data consistency for all distributed databases across the microservices? How to react at particular failures? And how to interact and communicate between services?
A research project for intelligent energy analysis will be presented. The solution realizes an Artificial Intelligence (AI) solution analyzing streaming data near real time to ensure energy savings in a production environment. The presentation will explain the steps necessary to establish a microservice environment for Artificial Intelligence and Machine Learning. Central logging guarantees operations monitoring across all microservices. Dashboards presents the results to technical staff monitoring the Machine Learning libraries as well as to the process owner of the domain, e.g. the operations manager or insurance agent. The solution is based on Docker as container virtualisation technology and Kubernetes for container orchestration. In the research project, the solution is realized on premise, but can be easily deployed in the cloud.
Data virtualization is being adopted by more and more organization for different use cases, such as 360 degrees customer views, logical data warehouse, democratizing data, and self-service BI. The effect is that knowledge about this agile data integration technology is available on how to use it effectively and efficiently. In this session lessons learned, tips and tricks, do's and don'ts, and guidelines are discussed. And what are the biggest pitfalls? In short, the expertise gathered from numerous projects is discussed.
Target Audience: Data architects, data warehouse designers, IT architects, analysts, solutions architects
Prerequisites: Some understanding of database technology
Level: Advanced
Extended Abstract:
Data virtualization is being adopted by more and more organization for different use cases, such as 360 degrees customer views, logical data warehouse, and self-service BI. The effect is that knowledge about this agile data integration technology is available on how to use it properly. In this practical session the lessons learned are discussed. Tips and tricks, do's and don'ts, and guidelines are discussed. In addition, answers are given to questions, such as: How does data virtualization work and what are the latest developments? What are the reasons to choose data virtualization? How to make the right choices in architecture and technology? How does data virtualization in your application landscape? Where and how do you start with the implementation? And what are the biggest pitfalls in implementation? In short, the expertise gathered from numerous projects is discussed.
Rick van der Lans is a highly-respected independent analyst, consultant, author, and internationally acclaimed lecturer specializing in data architectures, data warehousing, business intelligence, big data, and database technology. He has presented countless seminars, webinars, and keynotes at industry-leading conferences. He assists clients worldwide with designing new data architectures. In 2018 he was selected the sixth most influential BI analyst worldwide by onalytica.com.
Hohe Rentabilität bei konstant niedrigen Stornoraten sind in der Finanz- und v.a. Versicherungswirtschaft wichtige Ziele. Die Herausforderung in diesen traditionellen Branchen besteht darin, das über Jahre aufgebaute Wissen zu aktivieren, die entscheidenden Bezüge herzustellen und die Lücke zwischen IT-Architektur und konkreter Prozessunterstützung im Business-Alltag zu schließen.
Gemeinsam mit MORESOPHY setzen wir Demand-Driven-Data-Analytics ein, um Inhalte aus verschiedenen Datenquellen zu verbinden und eine datengetriebene Risikobewertung durchzuführen. Der Vortrag zeigt zudem auf, wie in einem agilen, KI-gestützten Ansatz Smart-Data-Analysen unmittelbar Geschäftsprobleme lösen und gleichzeitig eine effektive, flexible Datenstrategie etablieren helfen.
Zielpublikum: Fachexperten im Finanz- und Versicherungswesen, Datenwissenschaftler, IT-Architekten, Ingenieure, IT-Berater
Voraussetzungen: Grundlegendes Verständnis von Datenmanagement und analytischen Konzepten
Level: Fortgeschritten
Mit der Zeit verändern sich Informationen auf komplexe Art und Weise. Zum Beispiel ändern sich die Zuordnung von Produkten zu Produktgruppen oder auch die Zuordnung von Preisspannen der Produkte nach Zielgruppe, Vertriebskanal, Rabattsystem und vieles mehr im Zeitverlauf.
Zielpublikum: Data Modeler, Data Engineer, BICC Team Member, BI-Manager
Voraussetzungen: Grundlegendes Verständnis von ‚time in data warehousing‘
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Mit der Zeit verändern sich Informationen auf komplexe Art und Weise. Zum Beispiel ändern sich die Zuordnung von Produkten zu Produktgruppen oder auch die Zuordnung von Preisspannen der Produkte nach Zielgruppe, Vertriebskanal, Rabattsystem und vieles mehr im Zeitverlauf.
Fachbereiche planen bereits heute zukünftige Preise und Preisspannen, strukturieren Produktgruppen um, wie zum Beispiel für eigene Produktgruppen mit Rabatten speziell für den 'Black Friday'. Diese Informationen können und werden lange bevor sie in der Realität gültig sind, in den Systemen gespeichert.
In der heutigen Session gibt Dirk Lerner einen Einblick in Use Cases für bitemporale Daten und warum diese für heutige Geschäftsanforderungen wichtig und grundlegend sind. Anschließend visualisiert er die Vorgehensweise der bitemporalen Historisierung von Daten anhand eines einfachen Beispiels. Zum Abschluss stellt Dirk Lerner die aktuell existierenden Technologien vor, die eine (bitemporale) Historisierung von Daten bereits implementiert haben.
USE CASE: Siemens AG
- Ausgangslage: Nicht ausreichend zuverlässiger Forecast für Liefer- und Bestandsoptimierung
- Vorgehen: Cross-Industry-Standard-Prozess für Data-Mining-Projekte:
(a) Erstellung von datengetriebenen Kurz- und Langfristprognosen mit Machine Learning
(b) Identifikation von Einflüssen externer Informationen
(c) Schneller Projekterfolg durch Predictive-Analytics-Plattform
- Ergebnis: Detailgenaue Planung auf Abruf
(a) Signifikante Verbesserung der Prognosen
(b) Optimierung von Liefertreue und Lagerkosten
Zielpublikum: Data Scientist, Controller, Planner, Finance, DWH Architects, Project Manager, CFO
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Die Verkaufsprognose bei Siemens wies eine geringe Zuverlässigkeit mit negativen Auswirkungen auf den Lagerbestand und die Liefertreue auf. In einem dreistündigen Workshop evaluierten avantum und Siemens Möglichkeiten der Verbesserung, woraufhin sich Siemens für die Implementierung von ML-Algorithmen zur Prognose der Absatzmengen entschied.
Gemeinsam mit den Logistikexperten der Anlage entwickelte avantum ein prädiktives Modell. Dieses wurde mit der Softwarelösung APOLLO erstellt, die auf IBM SPSS Modeler basiert. Als Ergebnis der Modellnutzung konnte Siemens die Zuverlässigkeit seiner Prognose um mehr als 50 % erhöhen und somit Working Capital reduzieren und Liefertreue deutlich steigern.
As the data landscape becomes more complex with many new data sources, and data spread across data centres, cloud storage and multiple types of data store, the challenge of governing and integrating data gets progressively harder. The question is what can we do about it? This session looks at data fabric and data catalogs and how you can use them to build trusted re-usable data assets across a distributed data landscape.
Target Audience: CDO, Data Engineer, CIO, Data Scientist, Data Architect, Enterprise Architect
Prerequisites: Understanding of data integration software and development using a CI/CD DevOps approach
Level: Advanced
Extended Abstract:
As the data landscape becomes more complex with many new data sources, and data spread across data centres, cloud storage and multiple types of data store, the challenge of governing and integrating data gets progressively harder. The question is what can we do about it? This session looks at data fabric and data catalogs and how you can use them to build trusted re-usable data assets across a distributed data landscape.
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Der Vortrag behandelt das Thema 'Entscheidungsfindung'
Nach einer Einleitung, in der die Art der Entscheidungsfindung hergeleitet und motiviert wird, wird der Einsatz von KI in einem praktischen und echten Beispiel diskutiert
Zielpublikum: 'KI-Interessierte', Data Scientist, Project Leader, Decision Makers
Voraussetzungen: Grundkenntnisse, Erfahrung in KI und Prozessautomatisierung empfohlen
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Der Vortrag behandelt das Thema der Entscheidungsfindung für (automatisierte) Prozesse im Schadenbereich der Provinzial Versicherung
Entscheidungen im Zusammenhang der Versicherung werden diskutiert und die Zukunft der Entscheidungsfindung (algorithmische Entscheidungsfindung durch KI) wird hergeleitet. Wie die 'Künstliche Intelligenz (KI)' konkret diese Entscheidung übernimmt wird dabei auf hoher Flughöhe erklärt.
Danach wird dieses Thema an dem praktischen Beispiel des Schadenanlageprozesses der Provinzial diskutiert.
Dr. Jan Wiltschut ist im Provinzial Konzern für das Thema 'Künstliche Intelligenz im Schadenbereich' zuständig. Hierbei beschäftigt er sich mit der Identifikation, Bewertung, Entwicklung und Umsetzung von KI-Use-Cases, die die Schadenprozesse hinsichtlich des Ertrags, der Effizienz und/oder der Kundenzufriedenheit verbessern. Er hat über das Thema 'computational neuroscience' promoviert, konkret über die Entwicklung eines biologisch motivierten neuronalen Netzes für den (frühen) Sehprozess von Säugetieren. Vor seiner Zeit bei der Provinzial war er als Consultant bei der Firma Eucon GmbH auf dem Gebiet des 'Automotive Aftersales' beschäftigt.
Da formuliert man jeden Tag mit über 20 Jahren Programmiererfahrung die kompliziertes SQL-Statements, kennt vermeintlich jeden Kniff mit GROUP BY oder exotischen JOINs und dann ist da plötzlich so eine typische Kopfnuss: kinderleicht formuliert, die Aufgabenstellung sofort erfassbar... aber schon bei der Suche eines Ansatzes droht sich das eigene Gehirn zu verknoten...Wir schauen uns ein paar der extremsten Beispiele und deren Lösung an. Dabei liegt der Fokus nicht auf Theorie und Mathematik, sondern auf Kniffen und Ideen für die Praxis.
Zielpublikum: Datenbankentwickler, Entwickler, Analysten, Data Engineers, Data Scientist
Voraussetzungen: Basis SQL-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Wir lernen anhand unterhaltsamer Beispiele, welche Hilfsmittel die Hersteller im Laufe der Jahre in die Abfragesprachen und Tools integriert haben, um auch derartige Herausforderungen spielen zu meistern. Dabei sind die Fragestellungen so gewählt, dass jeder problemlos folgen kann und keine abstrakten wissenschaftlichen Abhandlungen notwendig werden. Wenn man an der richtigen Stelle über den Tellerrand hinausguckt, mal die bisherige Standardsichtweise gegen eine unkonventionellere Variante eintauscht und sein Handwerkszeug sicher beherrscht, liegt die Lösung quasi auf der Hand. Und erstaunlicherweise kann man den Lösungsansatz plötzlich auch im Alltag immer öfter erfolgreich einsetzen, sobald man ihn denn kennt.
Torsten Ahlemeyer realisiert seit über 18 Jahren Abrechnungs- und Stammdatenapplikationen in Großprojekten. Der Diplom-Wirtschaftsinformatiker hat als Entwickler angefangen und sich dann als Projektleiter in der Softwareentwicklung im Umfeld internationaler Projekte einen Namen gemacht. Die Microsoft-Technologie vom Betriebssystem über die Programmiersprachen war dabei in allen Projekten genauso gesetzt wie der MS-SQL-Server (SSAS, SSIS, SSRS, ...). Als IT-Consultant hilft Torsten Ahlemeyer Kunden der arelium GmbH hauptsächlich in der Rolle als Projektleiter, aber auch als Architekt, DB-Berater oder T-SQL-Spezialist bei der Umsetzung komplexerer Datenbankprojekte.
How do you enable digital transformation and create value through analytics?
Building a global analytics function across a diverse application landscape incl. SAP and multiple data sources provides many challenges. See how ABB successfully managed this journey and now enjoys the benefits of operational analytics globally, a shift in mindsets and a more data driven way of working.
You will also discover the impact of key technologies used (Change-Data-Capture, Automation & AI) and see real examples of specific analytics deployed in the business.
Target Audience: Business analysts, decision makers, C-Level
Prerequisites: Basic Knowledge
Level: Basic
Extended Abstract:
How do you enable digital transformation and create value through analytics?
This session tells the story of building a global analytics function in an environment with a diverse set of applications including a complex SAP system landscape and many data sources. The speaker will talk about some of the challenges in the journey but also the success in deploying operational analytics globally, shifting mindsets and help transition to a more digital/data driven way of working.
The audience will also discover the impact of key technologies used (e.g.: Change-Data-Capture, Visualization, Automation and AI) and how these helped to create value and drive revenue increase for ABB, using real examples of specific analytics deployed in the business.
A successful data culture brings together people from across the business to collaborate, share and learn from each other about data, analytics and the business value data can hold. In this session I share my suggestions for bringing together your most talented data people so your organization can gain more value from their skills and the data assets you invested in.
Come with an open mind and leave with tips, tricks and ideas to get started straight away.
Target Audience: Data practitioners, analysts, CoE leaders, Management
Prerequisites: basic understanding of how businesses use data
Level: Basic
Eva Murray ist Snowflake’s Lead Evangelist für die EMEA Region und anerkannte Expertin im Bereich Datenvisualisierung. Sie hat vier Bücher veröffentlicht, unter anderem zu den Themen wie man Data Communities aufbaut und wie man die Investitionen in Dateninfrastruktur im Profi-Fussball optimiert.
Bei Snowflake hilft Eva Murray Unternehmen, ihre Mitarbeiter für Daten und Technologien zu begeistern und dadurch Aspekte der Datenstrategie, wie z.B. Datenkultur, Datendemokratisierung und Datenkompetenzen zu verwirklichen.
Eva Murray ist seit vielen Jahren aktiver Teil der Datenanalyse- und Data Visualisierungs-Community und engagiert sich für Frauen in Data- und Tech-Berufen.
Anhand eines Artikels präsentieren wir, wie die Mobiliar ein neues Reporting-System mit SAP Analytics eingeführt hat. Ausgehend von einem reinen Excel- und PDF-basierten Reporting liegt der Fokus unserer Präsentation auf den Schlüsselfaktoren der erfolgreichen Transformation hin zu einem anerkannten BI-System.
Zielpublikum: CFO, Finanzexperten, BI-Projektleiter und Controller
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger
Die Implementierung einer effizienten KI wird durch die Verfügbarkeit fortschrittlicher Computer und schneller und großer Massenspeicher ermöglicht. Häufig stellen sich hierbei Fragen im Zusammenhang mit dem Datenschutzrecht. Die DSGVO ist hingegen nicht anwendbar, wenn anonymisierte Daten genutzt werden. Doch wann liegt eine 'rechtssichere' Anonymisierung vor? Ist sie im Zeitalter von Big Data überhaupt möglich? Der Beitrag stellt dies aus Sicht des Bereichs 'Selbstfahrender Fahrzeuge' dar und beleuchtet essenzielle rechtliche Fallstricke.
Zielpublikum: Der Vortrag verknüpft technische und rechtliche Erkenntnisse beim Einsatz von KI und ML und erklärt daher Grundlagen und Besonderheiten aus beiden Bereichen, sodass er sich für ein breites Publikum eignet.
Voraussetzungen: Es genügt Vorwissen entweder aus dem technischen oder rechtlichen Bereich. Der Vortrag ist gelungen, wenn Techniker danach ein Grundverständnis der relevanten Rechtsfragen haben und Techniker und Juristen sich danach im Bereich autonomer, selbst lernender
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Maschinelles Lernen (ML) und Deep Learning (DL) sind Werkzeuge, um KI-Anwendungen zu implementieren. Die Implementierung einer effizienten KI wird durch die Verfügbarkeit fortschrittlicher Computer und schneller und großer Massenspeicher ermöglicht. Häufig handelt es sich bei den genutzten Daten um personenbezogene Daten. Somit rücken Fragen im Zusammenhang mit dem Datenschutzrecht immer mehr ins Licht der Öffentlichkeit. Die Frage des 'Personenbezugs' von Daten wird im Datenschutzrecht seit jeher kritisch diskutiert. Die Rechtsprechung und auch Datenschutz-Aufsichtsbehörden gehen grundsätzlich von einem weiten Verständnis personenbezogener Daten aus. Einen neuen Höhepunkt erreicht diese Diskussion im Kontext von KI-Anwendungen. KI-Anwendungen müssen mit Datensätzen trainiert werden, die einen Personenbezug enthalten können, ohne dass dies auf Anhieb ersichtlich ist. In diesem Fall ist das strenge Regime der Datenschutzgrundverordnung (DSGVO) anwendbar. Dies ist jedoch nicht der Fall, wenn die Datensätze anonymisiert sind. Allerdings ist die Frage, ob Daten personenbezogen oder anonym sind, nicht nur eine technische, sondern vor dem Hintergrund der DSGVO auch eine rechtliche. Wann liegt eine 'rechtssichere' Anonymisierung vor? Ist sie im Zeitalter von KI und Big Data überhaupt noch möglich? Der Beitrag stellt dies aus Sicht von Anwendungen und Datensätzen im Bereich 'Selbstfahrender Fahrzeuge' dar und beleuchtet essenzielle rechtliche Fallstricke.
Von Führungskräften wird erwartet, den digitalen Wandel anzustoßen, zu steuern und die Mitarbeiter zu Veränderungen zu motivieren. Die Balance zwischen Technology-Literate People und People-Literate Technology bleibt herausfordernd. Digitales Mindset entwickeln Führungspersönlichkeiten mit einem 'digital Mindset' sind mehr gefragt denn je. Für den Erfolg von digitalem Wandel sind wenig überraschend nicht primär Technologien, sondern menschliche Fähigkeiten ausschlaggebend.
Zielpublikum: Leaders, Project Members
Voraussetzungen: None
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Der hier (in diesem Vortrag, Anm.) verfolgte Lösungsansatz rückt das 'digitale Mindset' als entscheidenden Faktor bei der Verankerung von Wandlungsfähigkeit im Unternehmen in den Fokus.
Aber was ist ein digitales Mindset? Für 'Mindset' gibt es keine gute Übersetzung. Haltung und Einstellung treffen am ehesten zu. Das Wort Set beinhaltet auch den Prozess des 'Einstellens'.
Anders: die innere Haltung lässt sich einstellen! Das Mindset ist wandlungsfähig. Ergänzt um das Wort 'digital' geht es um die Einstellung und Haltung, mit der Führungskräfte und Mitarbeitende mit den Anforderungen der Digitalisierung umgehen. Ein digitales Mindset ist an verschiedensten Merkmalen erkennbar, unter anderem:
Offenheit für moderne Technologien
- Neugier gegenüber Veränderungen
- Bereitschaft, Risiken einzugehen
- Bereitschaft zur Weiterbildung
- Mut zur Improvisation
- Denken und Handeln in Teams
- Offene Fehlerkultur
- Aufbrechen hierarchischer Strukturen
- Fokusausrichtung auf den Kunden
- ... und vieles mehr
Die angeführten Merkmale zeigen, dass eine Trennung zwischen privatem und beruflichem Kontext kaum möglich ist. Der private Mensch zeigt in seiner beruflichen wie privaten Persönlichkeit dieselben Merkmale auf.
Daher wirken Methoden der Persönlichkeitsentwicklung auch weit in das berufliche Wirken einer Person hinein.
Auf Dauer ist jener Mensch glücklicher, der sich gezielt mit der eigenen Wandlungs- und Entwicklungsfähigkeit auseinandersetzt. Ausgehend vom spiraldynamischen Ansatz1 wirken Veränderungen vom Individuum auf Teams, auf die Organisation und von dieser auf Strukturen der Wirtschaft und Gesellschaft.
Die Kenntnis innerer Kraftquellen und die Entwicklung von Mut und Gelassenheit gehören dabei zu den zentralen Führungselementen. Ziel ist die gesamthaft erfolgreiche Bewältigung großflächiger Transformationen.
Der Ansatz verfolgt die Prämisse 'von innen nach außen', vom Individuum auf die Gruppe und von der Gruppe in die Organisation.
Der Lebensalltag ist bei den Menschen begleitet von den verschiedensten Belastungen, von Dysbalance, von Konflikten in der Familie, am Arbeitsplatz, vielleicht einer Angst vor der Zukunft, vor der Endlichkeit und persönlicher Stagnation. Die Summe all dessen, was wir wahrnehmen, was wir hören, lesen, tun und denken, ergibt unser Lebensgefühl.
Es ist insbesondere nach der Lehre Viktor Emil Frankls und anderer, auch zeitgenössischer Leadership Autoren so, dass wir per se, als wahrnehmende Menschen, entscheidenden(!) Einfluss darauf haben, was wir wahrnehmen und wie wir es interpretieren. (Literaturempfehlung 'Sinnzentrierte Unternehmensführung': Um die anspruchsvollen Aufgaben der Zukunft zu lösen, brauchen Führungskräfte Fachwissen, Intelligenz (IQ), emotionale Kompetenz (EQ), vor allem aber Sinnorientierung (SQ).
Die Gestaltungsfreiheit unseres Lebens bewegt sich immer zwischen zwei Polen, Freiheit und Angst. Es gibt jedoch dazwischen eine Bandbreite an Möglichkeiten in großen und kleinen Entscheidungen. Das, was das Leben grundsätzlich 'anstrengend' machen kann, ist wenn man immer wieder abwägen muss, immer wieder überlegen muss, was jetzt 'das Richtige' zu tun wäre und in welchem Spielraum man sich gerade bewegt. Dem Dasein insgesamt liegt in allem eine Pendelbewegung zugrunde, spürbar in Tag und Nacht, in Ebbe und Flut und so weiter. Von allem Sein gibt es im Wesenskern auch dessen Gegenteil und wir als 'Entscheider' müssen Balance halten. Balance zu halten ist die Aufgabe unseres gesunden Menschenverstandes in Verbindung mit ausreichend Herz und Seele.
Zurück zu unserem Einfluss auf das, was wir wahrnehmen, wie wir es wahrnehmen und welchen Einfluss dies auf unseren Alltag hat.
Wir Menschen sind ausgestattet mit psychischen Kräften und Funktionen, sprich wir können normalerweise sehen, hören, riechen, schmecken und fühlen. Ohne den Filter des Menschenbildes und der individuellen Haltung bzw. ohne 'entscheidende' Absicht sind diese Funktionen zunächst reine Werkzeuge, deren Anwendbarkeit einer geistigen Dimension bedürfen, um 'Sinn' zu ergeben und eine Geschichte daraus entstehen zu lassen.
Das Wahrnehmen an sich stellt nur die physisch anatomische Grundlage dar. Ohne diese wären in der Folge keine Kräfte mobilisierbar. Ohne Ziel ebenso wenig bzw. nicht sinnvoll vorstellbar. Nach den funktionierenden Wahrnehmungseinrichtungen bedarf es der mobilisierenden Einrichtungen und um einen Senor für die Zielrichtung.
In der menschlichen Handlung kristallisiert sich die Selbstverwirklichung bzw. Lebensgestaltung, die im ethischen Sinn eine zentrale Rolle spielt. Habitus (Haltung, Weltbild) kommt u. a. durch Übung und Wiederholung zustande, (durch wiederholtes Handeln) und durch wiederholte Zustimmung zu einer gewissen 'inneren Ordnung', wenn man so möchte. Der Mensch braucht Ordnung und Orientierung und es mag ein wesentlicher Sicherheitsfaktor sein, die eigenen Handlungsweisen, den eigenen Habitus zu kennen und diesem vertrauen zu können. Auf Dauer würde es zu anstrengend und auch nicht sinnvoll, jede Handlung erneut zu überprüfen und ihre Stellung zwischen Möglichkeit und Wirklichkeit, zwischen Aktivität und Passivität oder auf ethische Tauglichkeit zu evaluieren.
So könnte man Habitus auch als Prinzip betrachten, welches das Hervorbringen adäquater Handlungen überhaupt ermöglicht. Nach Thomas von Aquin ist der Habitus der 'Ort, an dem die Möglichkeit zur Handlung ausgeführt wird'. So gesehen ist die Haltung etwas Statisches. Auch der Zeitgeist und das Menschenbild sind in diesem Sinne etwas Statisches. Dies zu 'wandeln' und zu einem 'höheren' Selbst zu kommen, ist das zentrale Anliegen von Digital Leadership und dessen Kern ein digitales Mindsets. Veränderungen finden statt und liegen in erster Linie in den äußeren Rahmenbedingungen, Wandlungsfähigkeit ist das, womit wir als Menschen antworten.
Um dem heutigen Titel gerecht zu werden und die 'Verlagerung von Computer-Literate People hin zu People-Literate Technology ' entscheidend mitzugestalten, gibt es unserer Ansicht nach – und auch aus der Erfahrung aus unseren Projekten nach – zwei Ansatzmöglichkeiten.
Beide nehmen den einzelnen Menschen, dessen Urteilsfähigkeit und dessen Bedürfnis, das 'Richtige' zu tun, ernst. Die zwei Ansatzpunkte betreffen nur die organisatorische Umsetzung. Einmal geschieht die Begleitung hin zu einer Wandlungsfähigkeit, einem digitalen Mindset, bei der Führungskraft und der zweite Ansatz – idealerweise zeitgleich – wird mit kleinen Gruppen in der Belegschaft durchgeführt. Wir sprechen hier nicht von Teambuilding oder Motivationstraining, nein, vielmehr geht es um die ganz zentralen Orientierungsparameter eines menschlichen Lebens, um die Werte. Aus denen entstehend Prinzipien und daraus wiederum Haltungen und daraus wiederum Kulturen – Organisationskulturen.
Wenn wir den Erfolg digitaler Transformationsprojekte ohne den wichtigen Faktor Mensch voranbringen wollen, müssen wir mit Reibungsverlusten und Widerstand rechnen.
In der praktischen Umsetzung kann das durch eine Vielzahl von Methoden gelingen. Wichtiger aber noch ist grundsätzlich ein Verständnis über Wandlungsfähigkeit und dass das Erreichen von Visionen und Zielen wichtig und möglich ist.
Am Beispiel der Führungskraft kann man die primären Führungseigenschaften zugrunde legen (eventuell agile Prinzipien) und bei einem festgestellten Entwicklungspotential etwa folgende Fragen stellen: Was wäre, wenn ich mutiger (strukturierter/integrierender/kommunikativer...) wäre. Dies setzt auf an den klassischen Führungseigenschaften. Diese Eigenschaften zu evaluieren ist grundsätzlich gut und richtig. Tiefer und effizienter ist aber noch ein imaginativer Ansatz.
Die großen Fragen in der wertorientierten Persönlichkeitsentwicklung 'praktisch' zu beantworten, bedarf eines humanistischen Kontextes, einer methodischen Vorgehensweise und einer großen Portion Zuversicht, dass das, was vorstellbar ist, auch möglich ist.
Die großen Fragen, die man sich als Mensch im Allgemeinen stellt, sind seit Jahrtausenden dieselben. Was ist wesentlich? Worauf kommt es an? Wer hat recht? Was bewegt mich? Was ist der Sinn und Zweck meines Lebens? Habe ich Ahnung davon, wie sich 'gelingen' anfühlt? Und so weiter.
Diese Fragen scheinen für einen Projektalltag – ja gar für einen datenbezogenen Projektalltag – unrelevant, sind jedoch der Kern einer stabilen und zielfähigen Persönlichkeit, die sich im Rahmen einer beruflichen Tätigkeit gut positionieren möchte, um das eigene Engagement und die berufliche Entwicklung nach den ureigensten Sinnmöglichkeiten entlang von Talenten und Werten aktiv zu gestalten. Welches Unternehmen sollte nicht an diesen Mitarbeiter-Attributen interessiert sein?
Google beispielsweise hat vor langer Zeit schon eingeführt, dass Mitarbeiter einen Teil der Arbeitszeit auf persönliche Projekte verwenden dürfen. Dies hat in weiterer Folge zur Entwicklung des inzwischen weltweit bekannten und in Lizenz weitergegebenen Mindfulness-Programmes namens 'Search Inside Yourself' geführt. Deren 'Erfinder', Jade Meng Tan, war einst Entwickler und hat wegen der großen Begeisterung seines Programmes inzwischen nichts anderes mehr zu tun als über ganz einfache Achtsamkeitsübungen weltweit Vorträge zu halten. Seine Position bei Google ist zwischenzeitlich 'Jolly Good Fellow'.
Jedes Unternehmen sollte einen Jolly Good Fellow haben und wenn Sie so wollen, bin ich die Verkörperung dieser Rolle bei TCI Consult. Unser Anliegen ist es, den Gedanken der Achtsamkeit – und zwar ganz genau im Sinne der Achtsamkeit auch für die eigenen Werte – zu heben und gerade wegen der Tendenz in Richtung Technikorientierung gegenzuhalten und eine Menschenorientierung in den Vordergrund zu stellen.
Viele große Unternehmen haben diesen Trend erkannt und entwickeln Programme, die mehr oder weniger auf ethischen Grundlagen beruhen, merklich mit leichter Tendenz zum Andenken breitflächigeren Einsatzes verschiedener Methoden.
Anmerkung: Dieser Vortrag wird als Dialog mit dem Publikum geführt, es werden praktische Übungen integriert. In sehr kurzen (1-2 minütigen) Videosequenzen werden erfolgreiche und verprobte Methoden gezeigt. Literaturempfehlungen und Quellen für Interessierte und Selbstentwickler werden bereitgestellt. Darunter befinden sich Klassiker wie Steven Covey, Peter Kramer, Deepak Chopra aber auch Visionäre wie Joe Diszpenza und populäre wie Jade Meng Tan, um eine zeitgemäße Übersetzung klassischer Führungsthemen zu anzubieten
Metadata is a long-time favourite at conferences. However, most attempts to implement real metadata solutions have stumbled. Recent data quality and integrity issues, particularly in data lakes, have brought the topic to the fore again, often under the guise of data catalogues. But the focus remains largely technological. Only by reframing metadata as context-setting information and positioning it in a model of information, knowledge, and meaning for the business can we successfully implement the topic formally known as metadata.
Target Audience:
- Enterprise-, Systems-, Solutions and Data Architects
- Systems-, Strategy and Business Intelligence Managers
- Data Warehouse and Data Lake Systems Designers and Developers
- Data and Database Administrators
- Tech-Savvy Business Analysts
Prerequisites: Basic knowledge of data management principles. Experience of designing data warehouses or lakes would be useful
Level: Basic
Extended Abstract:
Metadata has – quite correctly – been at the heart of data warehouse thinking for three decades. It's the sort of cross-functional and overarching topic that excites data architects and data management professionals. Why then can so few businesses claim success in implementing it? The real question is: implementing what?
This session answers that question by first refining our understanding of metadata, which has been made overly technical over the years and more recently been misappropriated by surveillance-driven organisations. With this new understanding, we can reposition metadata not as a standalone topic but as a vital and contiguous subset of the business information that is central to digital transformation. With this positioning, 'metadata implementation' will become a successful – but largely invisible – component of information delivery projects.
In this session, the ERGO Group, one of Europe's leading insurance companies, presents their AI Factory for development and operationalization of AI models. The session gives an architectural overview of the AI Factory's components. Furthermore, it explains how cloud-native technologies like Openshift and AWS Cloud Services aided in moving towards a data driven organization. A deep dive into the AI Factory's data ingestion process shows how metadata-driven data ingestion supports Data Governance in an enterprise context.
Target Audience: AI Leader, Insurance, Decision Maker, Data Engineer
Prerequisites: Background knowledge AI, Big Data Technologies, BIA
Level: Advanced
Extended Abstract:
In times of Advanced Analytics and AI, enterprises are striving towards automated and operationalized analytics pipelines.
In this session, ERGO and saracus consulting present the ERGO Group AI Factory. In particular, the presentation retraces how ERGO – in collaboration with saracus consulting – evolved from an on-premises analytics environment to an automated AI-Ops environment running on modern technologies within the AWS Cloud.
To this end, strategic aspects of delivering AI as a service as well as important components for delivering automated AI Pipelines in enterprises are highlighted.
Furthermore, the speakers take a deep dive into the technical aspects of the AI Factory's metadata driven data ingestion pipeline, emphasizing how it supports the key functionalities for Data Governance within ERGO's Data Strategy.
Die systematische Nutzung von Freitexten bietet ein großes Potenzial für die Gewinnung neuer Erkenntnisse oder die Automatisierung von Prozessen, das Unternehmen verstärkt nutzen wollen. Der Workshop soll Datenanalysten den Einstieg in das Text Mining erleichtern. Anhang konkreter Anwendungsbeispiele werden die nötigen Schritte und aktuelle Analyse- und maschinelle Lernverfahren erläutert. Für Datenvorbereitung und das Mining wird dabei Python genutzt, die Auswertung und Visualisierung der Ergebnisse erfolgt mit PowerBI.
Zielpublikum: Data Engineers, Data Analysts, Project Leaders
Voraussetzungen: Grundlegendes Verständnis von Data Mining/Machine Learning sowie elementare Programmierkenntnisse (nicht notwendigerweise in Python) werden vorausgesetzt. Zum Mitmachen sollten Python (Anaconda + zusätzlich spaCy) sowie PowerBI auf dem Laptop installiert sein.
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die analytische Erschließung von Texten ist für viele Unternehmen der erste Schritt in die Welt unstrukturierter Daten. Die Anwendungsgebiete sind vielfältig und reichen von der Auswertung von Kunden-Kommunikation für Marketing-Zwecke bis zum automatisierten Routing von Dokumenten oder der Priorisierung von Service-Requests.
Im Workshop wird anhand von Fallballspielen durchgespielt, wie ausgehend von einer Fragestellung ein Modell erstellt, evaluiert und visualisiert werden kann. Dabei wird gezeigt,
- wie Datenvorbereitung mit modernen NLP-Bibliotheken wie spaCy funktioniert
- wie sich schnell und elegant statistische Analysen auf den aufbereiteten Daten in Python und PowerBI umsetzen lassen
- wie aus Texten Feature-Vektoren erzeugt werden
- wie mit maschinellen Lernverfahren Texte klassifiziert und gruppiert werden können
- wie die Stärken und Schwächen der Modelle mit PowerBI transparent gemacht werden können
- wie Anwender selbst mit den Ergebnissen in PowerBI arbeiten können.
Am Ende werden Sie ein solides Grundverständnis davon haben, wie der Analyse-Prozess abläuft, welche Potenziale sich bieten und welche Fallstricke dabei lauern.
Michael Kolb ist seit 14 Jahren im Business Intelligence-Umfeld tätig - davon seit über 8 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit zwei Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG.
Dr. Christian Fürber is founder and CEO of the Information Quality Institute GmbH (iqinstitute.de), a specialized consultancy for Data Excellence and Data Management solutions. Prior to founding IQI in 2012, he held several data management positions at the German Armed Forces where he designed and executed the Forces’ Data Management Strategy. Since his leave from the Forces, Christian and his team have successfully established data management framworks for many companies in Europe helping them to accellerate innovation and digitization through data. Christian is also author, lecturer and speaker and organizes the TDWI Themenzirkel "Data Strategy & Data Governance".
Vortrag Teilen
Der Begriff „Data Literacy“ steht für ein sehr breitgefächertes Konzept von Datenkompetenzen von Personen. Diese Kompetenzen gewinnen im Geschäftsalltag an Bedeutung. Hintergrund für diese Entwicklung ist, dass Organisationen sich zunehmend das Ziel setzen, „datengetrieben“ zu werden, d.h.. bessere Entscheidungen auf der Basis von Daten zu treffen und den Mehrwert von Daten damit stärker zu nutzen. Die Herausforderung für eine solche Unternehmensentwicklung ist dabei nicht nur technisch, sondern hat sehr viel mit der Unternehmenskultur und den notwendigen Kompetenzen der Mitarbeiter zu tun. Ist es denkbar, alle Mitarbeiter auf diesem Weg einzubeziehen– und ist dies überhaupt wünschenswert? Oder ist das ein eher theoretisches Thema, welches sich in der Breite nicht durchsetzen wird?
Die vom Stifterverband initiierte und von zahlreichen Fachgesellschaften unterstützte „Data Literacy Charta“ formuliert ein gemeinsames Verständnis von Datenkompetenzen und deren Bedeutung für Bildungsprozesse. Sie richtet explizit an die Gesamtgesellschaft und hat das Ziel, durch die Schaffung von Datenkompetenz eine Beteiligung der Bevölkerung an den Chancen einer datengetriebenen Welt zu ermöglichen.
In diesem Panel soll erörtert werden, ob dieser Ansatz auch für Unternehmen realistisch und sinnvoll ist und was es benötigt, um Data Literacy in einer Organisation umzusetzen und zu leben. Lässt sich der akademische Ansatz auf alle Organisationen übertragen? Ist die Umsetzung in der Breite wünschenswert und realistisch? Oder ist es bloß ein weiteres „Mode-Thema“ unter vielen? Was wären konkrete und umsetzbare erste Schritte?
Artur König ist Informatiker mit aktuellem Tätigkeitsschwerpunkt in den Bereichen BI-Beratung, Daten-Architektur und Datenanalyse. Er ist seit 2016 bei der Scopevisio AG tätig, einem mittelständischen Hersteller von Cloud Unternehmenssoftware mit Sitz in Bonn.
Zurzeit verantwortet er das Customizing und die Umsetzung individueller Lösungen in Kundenprojekten, wobei ein wesentlicher Schwerpunkt Erweiterungen im Bereich des Reporting sind. Die Aufgaben umfassen die Entwicklung von Reporting-Standards und Konzeption sowie Umsetzung von kundenindividuellen Datenstrukturen und Auswertungen.
Zuvor war er acht Jahre bei der DATEV eG im Consulting mit dem Fokus auf IT-Compliance und IT-Sicherheit tätig. Er besitzt mehrere Zertifizierungen im Bereich der IT-Sicherheit und des Datenschutzes und hat umfassende Erfahrung als Referent für Sicherheits- und Compliance-Themen sowie bei der Umsetzung rechtlicher Anforderungen in der betrieblichen Praxis.
Neben den beruflichen Tätigkeiten ist er als Dozent bei der FOM, als Organisator der Berliner Power BI Usergroup sowie in mehreren Themenzirkeln des TDWI aktiv.
Vortrag Teilen
Ein sehr ernster humorvoller Blick auf die Modewellen der IT, ihre Auswirkung auf die Informationsprodukte im Unternehmen und ein methodischer Umgang mit dem Hype Cycle.
Der Mörder ist immer der Gartner, weil er bestimmt, wann ein Hype zu Ende ist und damit die Methode tötet. Typische Aussage fachfremder Menschen mit und ohne Budgetverantwortung: 'Warum machen wir das noch? Gartner sagt, dass ist nicht mehr aktuell.' Ungeachtet der Tatsache, dass die dahinterliegende Methode aus den 70ern stammt...
Zielpublikum: Data Engineer, Data Scientist, Project Manager, Decision Maker, Data Architect
Voraussetzungen: Basic Knowledge in Company IT, Data Management
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Der Fokus liegt aktuell auf Tools statt auf Methoden. Tools stellen sicher, dass nur auf eine bestimmte Art und Weise gearbeitet wird. Zumindest ist das die Hoffnung. Informationsprodukte bestehen aus 3 Komponenten: Informationen, Prozesse und Menschen. Es wird Zeit, den Blick nicht nur auf Daten und Werkzeuge zu richten, sondern die Methoden dahinter zusätzlich in den Fokus zu nehmen und damit die beteiligten Menschen, in die Lage zu versetzen, das richtige zu tun. Dann kann aus Fehlern gelernt werden und die richtige Adaption für die eigene aktuelle Situation gefunden und gehalten werden.
Michael Müller beschäftigt sich seit 2001 mit Business Intelligence und Data Warehousing. Er engagiert sich als Vorstand der deutschsprachigen Data Vault User Group (DDVUG) für die Verbreitung von Data Vault. Sein Tätigkeitsbereich liegt vor allem an der Schnittstelle zum Fachbereich, bei der Architektur und Datenmodellierung sowie bei der Automatisierung und Beschleunigung der Entwicklung im Data Warehouse.
Wenn Daten das neue Öl sind, wie kommt das Benzin ins Blut? Agilität gelingt nur, wenn Daten bekannt, verstanden, verknüpft und verwendet werden. Die Finanzindustrie muss Spezialistenwissen der Domänen und Fachbereiche vergemeinschaften und den Partnern der Wertschöpfungskette benutzergerecht anbieten. Dies setzt eine gemeinsame Sprache voraus. Data Literacy ist mehr als Statistik und Datenpräsentation. Erst ein gemeinsames Grundvokabular und eine Grundgrammatik sowie ein Fokus auf Datendemokratisierung schaffen Mehrwert.
Zielpublikum: Data Governance, Human Resources, Führungskräfte, Business Analysten, Projektmanager mit Datenfokus
Voraussetzungen: Keine. Kenntnis der Grundproblematik von Datenkatalogen und Datenfriedhöfen hilfreich.
Schwierigkeitsgrad: Anfänger
Digital Welcome Reception
Mit der „Berliner Erklärung“ haben sich die EU Staaten zu einer wertebasierten digitalen Verwaltung verpflichtet. Die Bundesregierung nimmt sich mit ihrer Datenstrategie dieser Aufgabe an und will den Staat zum Vorreiter für Digitale Souveränität und Open Data machen. Das 2. Open Data Gesetz und das Dashboard Deutschland haben dazu bereits den Weg geebnet und weiten das Daten- und Informationsangebot des Bundes aus. In weiteren Schritten soll die Nutzung der Daten über Datencockpits und Visualisierungstools vereinfacht und verbessert werden. Damit werden auch in verschiedener Hinsicht positive Auswirkungen auf Unternehmen einhergehen.
Der TDWI StackTalk ist ein Format, bei dem wir anhand von echten Analytics-Lösungen aus der Praxis folgende Fragen beantworten möchten:
Im Rahmen der TDWI München digital wird der Weg von der Einzel- zur Serienfertigung in der Datenanalyse bei Daimler Trucks betrachtet und gemeinsam mit Marco Sturm (Data Engineer und Data Scientist bei Daimler Trucks) besprochen.
Zielpublikum: Data Architects, Entscheider
Voraussetzungen: Keine
Level: Basic
Julian Ereth is a researcher and practicioner in the area of Business Intelligence and Analytics. As a solution architect at Pragmatic Apps he plans and builds analytical landscapes and custom software solutions. He is also enganged with the TDWI and hosts the TDWI StackTalk.
Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu. Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Zielpublikum: Analytics Manager, Data Scientist, BI & Big Data Experten, Automotive Interessierte, Verantwortliche für Digitalisierung, etc.
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu.
Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Eingebettet in das konsequent implementierte Performance Management System stellt BMW Deutschland mit C1 Advanced Analytics in der Breite und Tiefe über alle Vertriebsstufen passgenaue Lösungen bereit, um den Entscheidern bis hin zum Point of Sales einerseits maximale Transparenz über die aktuelle und künftig zu erwartende Geschäftsentwicklung zu geben. Andererseits werden auf Basis von Daten systematisch Entscheidungen getroffen und Maßnahmen zur Performance-Steigerung implementiert und stringent nachverfolgt. Die Beherrschbarkeit und Kosteneffizienz im Betrieb werden über automatisierte Abläufe wie z.B. die Konsolidierung und Harmonisierung von Händler-Reports professionalisiert. Dies führt hat über neue Berufsbilder in Kombination mit einer zielgerichteten Befähigung der Mitarbeiter in der Organisation gesamthaft zu einem 'New Way of Working' sowie zu gesteigerten Nutzung von Marktpotenzialen geführt. Gleichermaßen konnten über die Konsolidierung von Data Assets sowie eine strikte Data Governance erhebliche Effizienzsteigerungen realisiert werden. Letzteres hat sich insbesondere auch in der Corona-Krise bewährt.
Die technische Lösung basiert auf einer Cloud Data Plattform, in der alle relevanten Daten (strukturiert und unstrukturiert) so zusammengeführt werden, dass mit Hilfe von modernen Frontendlösungen alle relevanten Informationen zeitgerecht bereitgestellt. Teilweise werden bereits KI-Funktionalitäten genutzt, um beispielsweise die Allokation von Vertriebsförderungsmaßnahmen zu optimieren. Dafür werden sehr große Datenmengen mit komplexen Machine-Learning-Methoden verarbeitet, die Ergebnisse jedoch für die Anwender in benutzerfreundlicher Form im Frontend aufbereitet.
Seit 2018 wurde die Transformation zu einer datenbasierten Vertriebs- und Ergebnissteuerung im Markt systematisch vorangetrieben und seitdem mit über 80 umgesetzten Use Cases stetig ausgebaut. Die Geschäftsbereiche Finanzen/ Strategie (Weiterentwicklung zur Rolle als 'Performance Manager'), Vertrieb, Customer Support sowie und Marketing werden datenbasiert über das Performance Management System eng miteinander verzahnt und in die Lage versetzt, noch zielgerichteter zu steuern, um identifizierte Marktopportunitäten für die Vertriebsregion BMW Deutschland konsequent zu heben.
Im Vortrag werden der erfolgreiche Weg hin zu einem datenbasierten Arbeiten skizziert sowie die technische Architektur und beispielhaft ein Advanced Analytics Use Case aufgezeigt.
Mit der Agenda 2030 hat sich die Weltgemeinschaft die Sustainable Development Goals für eine nachhaltige sozial, wirtschaftlich und ökologisch Entwicklung gesetzt. Die Ziele dienen den Kommunen als Stoßrichtung für langfristige Politikplanung und dem kommunalen Monitoring.
Das Dilemma an den SDGs ist, dass sie mehrdimensional, universell gültig und heterogen in den Steuerungsgrößen sind.
Die Zusammenführung der Datengrundlage und Herstellung einer Vergleichbarkeit von Kennzahlen in einem gemeinsamen Zielsystem ist eine zentrale Herausforderung.
Zielpublikum: Entscheider, Leiter Controlling, Leiter Data & Analytics
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger
Like many companies, the 3 banks face the challenge of implementing data governance. With an end-to-end approach for metadata – from the business definition to the DWH implementation – a basis was created for this. The use cases 'IT requirements', 'data quality' and 'data definitions' were the focus of the resource-saving project. The target groups for the metadata are primarily the LoB, especially risk management, but also IT.
Target Audience: Data Governance Manager, Risk Manager, Data Quality Manager, Data Warehouse Architects, Data Modeler
Prerequisites: Basic knowledge
Level: Basic
Clemens Bousquet ist Risikomanager in der Oberbank, die Teil der österreichischen 3-Banken-Gruppe ist. Sowohl in einer Leitungsfunktion des Risikomanagements als auch in zahlreichen Projekten hat er eine hohe Expertise in der fachlichen Datenmodellierung, der Einführung von Data Governance, aber auch der Umsetzung von BCBS 239 und IFRS 9 aufgebaut. Zuvor hat er die Diplomstudien in Volkswirtschaftslehre und Internationale Wirtschaftswissenschaften absolviert.
Lisa Müller ist Senior Consultant bei dataspot. Seit mehreren Jahren setzt sie sich im Projektgeschäft - besonders im Bankwesen - mit Fragestellungen an der Schnittstelle zwischen Fachbereich und Technik auseinander und erarbeitet kundenindividuelle Lösungen. Ihre exzellente fachliche Expertise kommt dabei im gesamten Lebenszyklus von Metadaten und Data Governance zur Geltung, wobei sie besonderen Wert auf die fachliche Datenmodellierung und das Metadatenmanagement legt. Neben zwei abgeschlossenen Bachelorstudien hält sie einen Master in Betriebswirtschaft.
Die Digitale Transformation befeuert im industriellen Bereich projektbezogene Kooperationen mit verschiedenen Partnern in offenen Netzwerken – mit erheblichen Auswirkungen auf leistungsfähige BIA-Infrastrukturen. Der einführende Vortrag ist diesem Gebiet gewidmet und thematisiert Einsatzfelder, Architekturen, Governancestrukturen und Betreibermodelle für BIA-Konzepte auf der Basis gemeinsam genutzter Datenräume.
Diese Session ordnet die Themenfelder und stellt den organisatorischen Rahmen dar, in den die Nutzung von Analytics in Unternehmen eingebettet sein sollte. Dazu werden zunächst statistische Grundlagen aufgefrischt. Darauf aufbauend werden Algorithmen und deren potenzielle Eignung für Anwendungen vorgestellt und diese anhand kleiner Beispiele durchgerechnet.
Maximale Teilnehmerzahl: 20
Bitte halten Sie einen Taschenrechner (die Taschenrechner-App Ihres Smartphones ist ausreichend) für diese Session bereit.
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Machine Learning ist auf dem Vormarsch und hochgradig von Daten abhängig. Das Thema ist omnipräsent und wird aber meist entweder sehr abstrakt oder aber sehr algorithmisch, daten-zentriert, auch code-nah beleuchtet. Der Blick auf die Gesamtarchitektur von Systemen, die ML enthalten, fehlt dabei oft. Unser Vortrag unterstützt Softwarearchitekten und Data Scientists dabei, den Überblick zu behalten, die wesentlichen Fragen zu stellen, besser zusammenzuarbeiten und somit bessere Architekturen für Systeme basierend auf Machine Learning zu designen.
Zielpublikum: Software Architect, Project Leader, Data Scientist
Voraussetzungen: Grundlegendes Verständnis zu Softwarearchitektur
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Self-Service Analytics: Fluch oder Segen?
Erfahren Sie, wie Sie die praktischen Herausforderungen bei der Einführung von Self-Service Analytics überwinden.
Begleiten Sie STADA Arzneimittel AG auf ihrem Weg zur Data-driven Company und welche Rolle Self-Service Analytics dabei einnahm.
Die Lektionen die wir dabei lernten werden Ihnen helfen die Hürden und Fallstricke zu meistern, um so die Datenanalyse-Kultur in Ihrem Unternehmen in einen Segen zu verwandeln.
ETL ist Batch: Effizienz, Datenkonsistenz, Nachvollziehbarkeit, Einfachheit, etablierte Methoden und ausgereifte Werkzeuge machen den Bau eines DWH zu einem Standard-Job.
Dabei ist Streamprocessing technisch kein Problem. Nur: Wie baut man komplexe fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz? Wohin mit der Datenhistorie? Wie geht das ressourceneffizient?
Der Vortrag zeigt an einem konkreten Projekt Verfahren, Werkzeuge, Vor- und Nachteile und die konkrete Umsetzung eines rein Event-getriebenen Data Warehouses.
Zielpublikum: Data Engineers, BI Project Manager
Voraussetzungen: Gutes DWH und ETL Knowhow
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
ETL ist heute (noch?) immer eine reine Batch-Veranstaltung – und das aus gutem Grund: Effizienz und geringer Overhead, hohe Datenkonsistenz, Nachvollziehbarkeit, niedrigere Komplexität, etablierte Methoden und ein Fundus ausgereifter Werkzeuge machen den Auf- und Weiterbau eines Data Warehouses oder eines Data Lakes (fast schon) zu einem Standard-Job. Selbst die meisten 'Near-Real-Time' Prozesse (stündlich, viertelstündlich oder 5-minütlich) werden heute durch – kürzere, kleinere und häufiger ausgeführte – Batch-Jobs erledigt, nicht selten exotische 'Außenseiter' in der Riege der täglichen DWH Workflows.
Dabei ist doch zumindest eine zeitnahe Datenextraktion im Stream technisch kein großes Problem: Ob 'Log-based CDC', Json-Streaming via http oder das Abgreifen von Events aus Kafka ist weit verbreitet. Und auch das permanente Runterschreiben dieser Datenströme in Datenbanken ist kein Hexenwerk.
Wie aber implementiert man darauf komplexe, technische und fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz, wenn die Ankunft der Daten nahezu unvorhersagbar ist? Wie speichert man diese Datenströme – mit Datenhistorie für spätere Auswertungen – und wie kann man solche Prozesse noch ressourceneffizient umsetzen?
In diesem Vortrag zeigen wir anhand konkreter Projekte, welche Verfahren und Werkzeuge sich eignen, wo deren Vor- und Nachteile gegenüber klassischen Batch-Prozessen liegen und wie eine konkrete Umsetzung eines rein Event-getriebenen Data Warehouses aussehen kann.
Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.
Das Competence Center für Künstliche Intelligenz für die Sparkassen-Finanzgruppe ('KIXpertS') wurde Anfang 2019 gegründet und befindet sich im dritten und letzten Jahr seines Bestehens. Andreas Totok wird über die Erfahrungen berichten, die in Aufbau und Betrieb des als Programm organisierten Competence Centers gemacht wurden. Weiterhin wird er ausgewählte Use Cases vorstellen, die anhand ihres Potentials für die fachliche Evaluierung und folgende technische Implementierung ausgewählt wurden.
Zielpublikum: Fachanwender, IT-Architekten mit
Voraussetzungen: Grundlegendes Verständnis der Methoden Künstlicher Intelligenz wie beispielsweise das maschinelle Lernen.
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Das Competence Center für Künstliche Intelligenz der FI-Gruppe unterstützt die Sparkassen-Finanzgruppe dabei, die Chancen der Künstliche Intelligenz frühzeitig zu nutzen. Die Initiative wurde 2019 von der Finanz Informatik ins Leben gerufen und bietet eine Plattform für den Wissensaustausch zum Thema. Übergreifende Ziele sind, es mit Hilfe von KI für den Kunden einfach zu machen sowie ungeliebte Prozesse innerhalb der S-Finanzgruppe besser zu unterstützen bzw. überflüssig zu machen.
Das KIXpertS-Team besteht aus einem übergreifenden Team von Experten für Künstliche Intelligenz und Softwareentwicklung mit bankfachlichem Knowhow sowie Kenntnissen und Erfahrungen der Integration in bankfachliche Prozesse.
Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Bankinstitute und Versicherungen der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Projekte für die Anwendung Künstlicher Intelligenz und dem Management von Daten. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung.
Eine Genossenschaft ist eine bewährte und beliebte Rechtsform für Kooperationen im Mittelstand. Genossenschaften haben in Deutschland eine lange Tradition für die gemeinsame Beschaffung von Gütern, für die Produktion, den Vertrieb und auch die gemeinsame Erbringung von Dienstleistungen. Der Vortrag lotet aus, inwiefern eine Genossenschaft auch einen Rahmen für das Teilen und Analysieren von Daten in Unternehmensnetzwerken bieten kann: Eine Genossenschaft verankert den Anspruch auf Kooperation, kann als eigene Rechtsform die gemeinsame Vorhaltung von Daten- und Analyse-Ressourcen institutionalisieren, erlaubt die neutrale Verortung der Verantwortung für diese und ist hinreichend offen, leichtgewichtig und flexibel für eine einfache Veränderung und Skalierung des Unternehmensnetzwerkes. Es wird argumentiert, dass und wieso solche Datengenossenschaften eine sinnvolle Antwort des Mittelstands auf die aggressiven Analytics-Strategien internationaler Konzerne sein kann.
Anhand eines konkreten Beispiels wird in diesem Vortrag darauf eingegangen, wie das etablierte Konzept der Genossenschaft im produzierenden Kontext eingesetzt werden kann, um das Teilen von Daten über Unternehmensgrenzen hinweg zu ermöglichen. Am Beispiel eines Konsortiums aus einem Fertigungsbetrieb, einem Hersteller von Reinigungsanlagen und einem Kühlschmierstoff-Händler wird auf das Wertschöpfungsszenario “Kühlschmierstoff as a Service” eingegangen. Es wird dargestellt, welche Daten geteilt und welche Analysen auf dem genossenschaftlich geteilten Datenpool generiert werden können. Aus der Sicht eines Herstellers von Kühlschmierstoff-Aufbereitungsanlagen wird Herr Dr. Wiltz darstellen, welcher Nutzen durch geteilte Daten für alle Beteiligten entsteht.
Diese Session erarbeitet Auswahlkriterien von Algorithmen und überträgt die Umsetzung in das Werkzeug RapidMiner. Natürlich ist dies nur ein Werkzeug unter vielen, jedoch soll es den Teilnehmern einen Eindruck vermitteln, wie in Projekten mit großen Datenbeständen und entsprechenden Analyseanforderungen werkzeugunterstützt gearbeitet wird.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner)
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Oktober 2021 ist er Senior Advisor New Business & Strategy bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge zur Entwicklung des Data & Analytics-Marktes veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Klaus-Dieter Schulze ist seit 2012 Mitglied im Vorstand des TDWI e.V.
Vortrag Teilen
Philipp von Loringhoven ist Designer, Entwickler, Marketeer und Daten-Nerd. Als Freelancer ist er gefangen zwischen Marketing, Produktentwicklung, Business Intelligence und Analytics - er hilft Unternehmen ihre Kunden besser zu verstehen, um mit ihnen zielführender zu kommunizieren. Gleichzeitig ist Host des DataEngage Podcasts und der daily-data.news Plattform.
Der Buchautor und Dashboardexperte Andreas Wiener hat über 10 Jahre Erfahrung im Erstellen und der Etablierung von Dashboards in Unternehmen. Er hat zahlreiche Bücher und Artikel geschrieben und gehört zu einem der führenden Visualisierungs- und Dashboardexperten in Europa.
Banken und Versicherungen beschäftigen sich seit Jahren aktiv mit dem Thema Data Analytics. Cloud und Big Data Architekturen sind hier keine Seltenheit. Was sind aber aktuelle Trends in dieser Branche? Im Panel werden die Themen Cloud und KI in der Finanzindustrie beleuchtet und kritisch hinterfragt.
Dr. Andreas Totok ist Geschäftsbereichsleiter Enterprise Information Management bei der Finanz Informatik Solutions Plus GmbH. In dieser Funktion berät er Bankinstitute und Versicherungen der Sparkassen-Finanzgruppe zu strategischen IT-Themen und verantwortet Projekte für die Anwendung Künstlicher Intelligenz und dem Management von Daten. Seine Schwerpunkte liegen in der Fachkonzeption sowie der Architektur- und Organisationsberatung.
Dr. Jan Wiltschut ist im Provinzial Konzern für das Thema 'Künstliche Intelligenz im Schadenbereich' zuständig. Hierbei beschäftigt er sich mit der Identifikation, Bewertung, Entwicklung und Umsetzung von KI-Use-Cases, die die Schadenprozesse hinsichtlich des Ertrags, der Effizienz und/oder der Kundenzufriedenheit verbessern. Er hat über das Thema 'computational neuroscience' promoviert, konkret über die Entwicklung eines biologisch motivierten neuronalen Netzes für den (frühen) Sehprozess von Säugetieren. Vor seiner Zeit bei der Provinzial war er als Consultant bei der Firma Eucon GmbH auf dem Gebiet des 'Automotive Aftersales' beschäftigt.
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe (HKA). Dort vertritt er u. a. die Bereiche Business Intelligence und Projektmanagement im Fachgebiet Informatik. Den Bachelor Studiengang 'Data Science' an der HKA hat er maßgeblich mitgestaltet. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
Vortrag Teilen
Mit Data Lakehouse und Data Mesh verbreiten sich im Moment neue Paradigmen und Architekturmuster für analytische Fragestellungen in Unternehmen unterschiedlichster Branchen. Die beiden Ansätze verfolgen hierbei sehr konträre Zielsetzungen und verheißen gleichzeitig die nächste Evolutionsstufe analytischer Architekturen zu sein.
Im Rahmen des Vortrags werden die beiden Architekturmuster und deren Intensionen gegenübergestellt und anhand praktischer Projekterfahrung eingeordnet.
Zielpublikum: Enterprise Architects, Data Architects, DACC / BICC Manager, Data Engineers, Data Scientists, Data Consumers
Voraussetzungen: Grundverständnis über heutige Architekturen im Data & Analytics-Umfeld und den daraus resultieren Herausforderungen für die involvierten Stakeholder.
Schwierigkeitsgrad: Fortgeschritten
Steffen Kandler studierte Wirtschaftsinformatik an der Technischen Hochschule Mittelhessen. Nach seinem Einstieg bei INFOMOTION arbeitet er als BI-Entwickler und Architekt mit Schwerpunkten im Data Management, Data Warehousing sowie Data Visualization. Aktuell befasst er sich mit dem Einfluss der Digitalen Transformation auf Data & Analytics und den Facetten von modernen, skalierbaren und flexiblen Analytics-Plattformen sowie den zugehörigen Architekturen, Technologien und Methoden.
Wohin geht der Trend? Wie entwickelt sich der Markt? Welche neuen Möglichkeiten bieten sich? Produktmanager müssen von Natur aus zukunftsorientiert arbeiten und mitunter in die Glaskugel blicken. Je höher die Anzahl und je diversifizierter die Waren, umso komplexer die Portfolioplanung. Das Produktmanagement bei ratioform steht täglich vor genau dieser Herausforderung – und hat mit Hilfe innovativer Technik eine zukunftsorientierte Lösung gefunden!
Zielpublikum: product managers, data management experts, ML specialists, decision makers
Voraussetzungen: experience
Schwierigkeitsgrad: Fortgeschritten
Ein 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung. Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.
Zielpublikum: Project Leader, Data Stuarts, Decision Makers, Data Architects, BI Specialists
Voraussetzungen: Basic Knowledge
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Ein datenbasierter 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene ERP- und CRM Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung.
Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.
Die Erstellung von Golden Records mit Hilfe von Algorithmen, das Analysieren von Dubletten, die Anreicherung von Kundendaten mit digitalen Wirtschaftsinformationen und ein Workflow-Tool, welches den Datenprozess automatisiert steuert, sind dabei die wichtigsten Bausteine für ein erfolgreiches Master Data Management.
Mirjam Cohrs (M.A. Politikwissenschaft) ist Leiterin des Management Business Intelligence Teams bei der Bilfinger SE. Ihre Karriere begann als Analystin im CRM-Umfeld, heute bringt sie mehrjährige Erfahrung in der Umsetzung von Reporting- und DWH-Projekten in der Finanz- und Vertriebssteuerung mit.
Die Absatzprognose ist in der klassischen Industrie das A&O der Ressourcen- und Wirtschaftsplanung. Ereignisse wie die Pandemie machen jedoch eine Planung mit klassischen Verfahren fast unmöglich. KI basierte Modelle können hier helfen. Können diese Methoden auch auf Banken bzw. die Finanzindustrie übertragen werden? In dem Vortrag werden anhand eines konkreten Beispiels die Möglichkeiten und Herausforderungen von KI basierter Prognose von Verkaufszahlen im Banking vorgestellt.
Zielpublikum: Vertriebsmanager, Controlling, Business Development
Voraussetzungen: Kenntnisse über Planungs- und Prognoseprozess in Banken / Finanzindustrie
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Für einen validen Prognoseprozess im Banking sind ausreichend historische und qualitativ hochwertige Daten notwendig. Welche Daten für den Prognoseprozess in der Praxis vorliegen und wie diese aufbereitet und veredelt werden, zeigen wir im ersten Teil des Vortrages. Im zweiten Teil gehen wir auf die KI-basierten Prognosemodelle ein und stellen anhand eines Praxisfalls die Ergebnisse und die daraus resultierenden Möglichkeiten und Herausforderungen vor. Hierbei wird auf die Komplexität der Prognose durch die Kombination von Produkten, Kanälen und Mitarbeitern besonders eingegangen.
Diese Session beschäftigt sich mit dem Werkzeugunterstützungsgedanken mittels der Sprache R. Die in diesem Umfeld prominent genannte Sprache ist für statistische Berechnungen und Grafiken geschaffen worden. In der Session werden ausgewählte kleine Beispiele im Werkzeug umgesetzt.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
RStudio DESKTOP www.rstudio.com/products/rstudio/ (berücksichtigen Sie bitte, dass RStudio die zusätzliche Installation der R-Bibliotheken während der Schulung verlangt, z. B. von cran.r-project.org/mirrors.html)
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Kafka and Kafka Streams have emerged as the de facto standard for scalable, high volume and low-latency real time data processing in the industry. Complex event processing is concerned with the detection of patterns in raw events and their transformation to higher level events that are more business relevant. This talk shows how to implement scalable, fault tolerant and declarative complex event processing based on Kafka Streams.
Target Audience:Data Engineer, Data Scientist, Data Architect
Prerequisites: Basic understanding of real time data processing and Apache Kafka.
Level: Advanced
Extended Abstract:
Kafka and Kafka Streams have emerged as the de facto open source standard for real time, low latency and high throughput data integration in a large variety of industries. Besides providing traditional operations such as grouping, aggregations and table-table joins, Kafka Streams treats streams of data as first class citizens and offers some unique features geared at real time data wrangling such as aggregation of data across different types of time windows, real time data enrichment, and joins between streams of data. While both types of operations have emerged from the ambit of relational databases, the complex event processing community has focused their attention on declarative, pattern based recognition of business relevant events from lower level, raw events. Examples for operations supported by complex event processing are sequences, negation, conjunction, disjunction and repetition. This talk shows how sequences, negation and regular expressions on event streams can be implemented in a scalable and fault tolerant manner based upon the Kafka Streams DSL and the Kafka Streams Processor API. The provided examples are relevant to use cases such as detection of shoplifting, security systems, operations of production lines, and online shopping.
I will show the journey that Tires took from its first attempts to extend their BI services for analytics to operate a mission critical industrialization environment which runs several AI projects. Beneath the problems and obstacles that were taken I will also explain the decisions that were taken and show the industrialization environment which was created. I also will explain why it was necessary to have such an environment instead of making use of classical BI tools.
Target Audience: Project leader, decision makers, CIO, Software engineers
Prerequisites: None
Level: Basic
Extended Abstract:
When Continental Tires started to establish Data Science as a function it decided to grow this out of BI but with an external employee. The journey was a long one but due to the given experience Continental was able to leave out some of the painful experiences that were made in other companies. So they decided to build up an infrastructure for industrialization of Use Cases from the first minute. The example of Tires is a good one to understand the roadmap from BI to Data Science industrialization. While in the beginning there was the hope that a simple extension of BI and BI tools would deliver an answer today the organization is a complete different one. Also Tires created an own landscape for industrialization of AI. Why this is done so and why this might be useful will be shown in the talk.
In the past, data was often stored in a monolithic data warehouse. Recently, with the advent of big data, there has been a shift to work directly with files. The challenge therefore arises in data management and storing metadata information. In this presentation, I will show how SAP (ERP or BW) data can be extracted using SAP Data Intelligence (ODP framework) and stored along with their metadata information. These data are stored in a Common Data Model (CDM) format and can be easily integrated and consumed with various products.
Target Audience: Professionals who would like to integrate SAP data into a Data Platform (e.g. Datalake) and include metadata information.
Prerequisites: Basic understanding of the SAP integration framework ODP, and cloud infrastructure (e.g. Azure Datalake Storage)
Level: Advanced
Julius von Ketelhodt hat Geophysik und Geoinformationswissenschaften an den Universitäten Witwatersrand (Südafrika) und Freiberg studiert und in Geophysik und Seismologie promoviert.
Seit mehreren Jahren beschäftigt er sich in Data & Analytics Projekten von Großkunden unterschiedlichster Industrien explizit mit der Fragestellung, wie betrachtungsrelevante Daten aus verschiedenen SAP Quellsystemen in Cloud Data Plattformen führender Hersteller integriert werden können. Zudem hat er das Konzept des Common-Data-Models (CMD) in Zusammenarbeit mit SAP, Microsoft und Adobe aus der Taufe gehoben und weiterentwickelt.
Beim Data & AI Beratungshaus initions ist er seit knapp 4 Jahren als BI-Consultant tätig und zeichnet gleichzeitig als Product Lead im hauseigenen SAP Product Team verantwortlich.
Julius von Ketelhodt ist verheiratet und lebt mit seiner Frau und seinen zwei Kindern in Hamburg.
Durch die Digitalisierung und die zunehmende Regulierung sind Unternehmen einem steigenden Veränderungsdruck ausgesetzt. Um darauf reagieren zu können, ist eine hohe Transparenz über die operativen und dispositiven Datenbestände notwendig. Zusätzlich bringen die zunehmende Automatisierung der Datenverarbeitung und der Einsatz Künstlicher Intelligenz für die Entscheidungsfindung eine gesteigerte Anforderung an die Datenqualität mit sich. Synabi und der Raiffeisenverband Salzburg haben sich dieser Herausforderung erfolgreich gestellt – aber wie?
Zielpublikum: CIO, CDO, BI/DWH Entscheider, BI/DWH (Competence Center) Manager, BI/DWH Programm- und Projektleiter, BI/DWH Architekten, interessierte IT- und Fachbereichsverantwortliche und Anwender
Voraussetzungen: Voraussetzung sind grundlegende Kenntnisse in den Bereichen Daten- und Informationsmanagement. Architektur, Modellierung, Betrieb, Organisation und Prozesse ist vorteilhaft
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Beim Raiffeisenverband Salzburg wurde 2016 eine Data Governance Initiative gestartet, um die bestehenden und zukünftigen Herausforderungen, die unter anderem durch die zunehmenden Regulierungen, wie zum Beispiel BCBS239, DSGVO etc., entstehen, zu meistern. Dabei wurden neben den Daten auch die Prozesse und die Unternehmensarchitektur mit eingebunden. 2019 wurde D-QUANTUM als Softwarelösung ausgewählt und im Unternehmen eingeführt, um die hierfür erforderlichen technischen und fachlichen Informationen zusammenzuführen und allen Mitarbeitern des Unternehmens zur Verfügung zu stellen
Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in unterschiedlichen Branchen (Telekommunika- tion, Banken und Handel). In seiner Funktion als COO der Synabi Business Solution GmbH verantwortet er die Konzeption und Umsetzung von Metadaten und DataGovernance-Projekten.
Diese Session fokussiert die Programmiersprache Python anhand vorgefertigter Code-Beispiele, um den Teilnehmern eine Grundlage zu schaffen, die Einsatzpotenziale und Aufwände der Sprache im Bereich Advanced Analytics besser abschätzen zu können.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können: Anaconda https://www.anaconda.com/products/individualum Python nutzen zu können.
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Das Modern Data Warehouse (MDWH) gilt als DAS Zukunftskonzept für die digitale Transformation. Denn: Dank Cloud-Technologien kann das MDWH auf ganz unterschiedliche Anforderungen vom Reporting bis zur KI angepasst werden. Aber wie sieht eine Basisarchitektur aus? Welche Anpassungen sind bei verschiedenen Use Cases notwendig? Jens Kröhnert liefert die Antworten. Vor den Augen des Publikums baut er ein MDWH in der Cloud auf und spielt konkrete Einsatzszenarien durch. Die Teilnehmer werden als Lieferant für Streaming-Daten unmittelbar involviert.
Zielpublikum: Alle Personengruppen im Unternehmen, die mit Daten arbeiten
Voraussetzungen: Basiskenntnisse
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
GLIEDERUNG:
Einführung in das MDWH
Kunden-Case 'Aluminium-Fertigung'
Step by Step: Aufbau eines MDWH
Jens Kröhnert verfügt über langjährige Erfahrung in der Planung und Umsetzung von Digitalisierungsprojekten. Als Innovationsexperte hat er für ORAYLIS immer die neuesten Technologien und Entwicklungen im Blick.
Quantifying the impact of customer experience (CX) improvements on the financials is crucial for prioritizing and justifying investments. In telecommunication as well as other subscription-based industries, churn is one of or the most important financial aspects to take into account. The presented approach shows how the churn impact of CX improvements – measured via Net Promoter Score (NPS) – can be estimated based on structural causal models. It makes use of algorithms for causal discovery and counterfactual simulation.
Target Audience: Data Scientist, Decision Maker
Prerequisites: basic understanding of statistical modeling
Level: Advanced
Der fachliche Wettbewerbs- und Kostendrucks sowie steigende Anforderungen erhöhen den Bedarf an Industrie- und Standardlösungen. Allerdings werden Standardlösungen den Anforderungen, z.B. BCBS 239, oftmals nicht gerecht. Es entsteht eine Diskrepanz, dem nur mit einer modernen, dispositiven Infrastruktur begegnet werden kann. Neue Ansätze und Methoden in der Umsetzung sind daher gefragt: Eine moderne Referenzarchitektur, die bei der Lösung zukünftiger Herausforderungen unterstützt und Grundlage für eine moderne Analyseplattform liefert.
Zielpublikum: Entscheider, Data Engineer, Architekten, Controlling, Projektleiter
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger
Wie jede Bank will auch die Volksbank Wien in allen Geschäfts- und Steuerungsprozessen maximale Informations-Integrität und Datenqualität auf allen Ebenen erreichen. Auf Basis fachlicher Metadaten werden die Datenqualitätsanforderungen definiert, der Life-Cycle und Anforderungsprozess umgesetzt sowie die Verantwortlichkeiten vergeben. Die Trennung in 'Datenqualität allgemein' und in 'Qualität der Datenproduktion' half bei der Strukturierung der Maßnahmen, die auf Governance-Aspekte, RUN the Bank und CHANGE the Bank abzielen.
Zielpublikum: Data Governance Manager, Datenqualitätsmanager, Riskmanager, Metadatenmanager
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Anfänger
Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Diese Session vermittelt die Unterschiede zwischen Data Mining und Text Mining, so dass auch hier die Teilnehmer in der Lage sind, diese zu erkennen und in eigenen Projekten zu berücksichtigen. Während der Session zeigen wir ein kleines Code-Beispiel, so dass der Eindruck für den Aufwand vermittelt wird.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner. Bedenken Sie dann aber bitte, dass in der Software teilweise alternative Abläufe zu beachten sind.)
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftragte an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Transforming an organization to become more data driven usually presents a set of technological challenges. In this session you will learn how to integrate existing applications data in real time to achieve a useful critical mass of explorable data.
Target Audience: CTOs, CIOs, CDOs, data engineers, data modelers, data analysts, data scientists
Prerequisites: General understanding of data in the context of the enterprise
Level: Basic
Extended Abstract:
'Data is the new oil' – these days many organizations are in the midst of a digital transformation. In order to enable data driven processes, it is imperative to leverage the treasure trove of data hidden away in already existing applications. Extracting data from those applications (the E in ETL) is commonly the biggest pain point of data engineering. Many systems were not built to be extracted, so therefore data engineering needs to carefully balance performance versus load. At the same time customers demand more: nightly batch processing is not good enough anymore, the need for real time information is growing.
How to align all of this? Enter Change Data Capture (CDC). Based on a real live use case, you will learn how to integrate data from an existing mission critical SAP application into a modern cloud-based analytics warehouse. We will tell the story of our journey from the initial use cases, constraints that we faced, discoveries along the way to the final design and our appetite for more.
Künstliche Intelligenz analysiert natürlichsprachliche Texte, um präzise, robusteSyntaxbäume abzuleiten. Die syntaktische Struktur einer Aussage ist aber oft weniger wesentlich als ihre semantische Struktur. Sprich:Was besagt sie? Welcher Sinn steckt in ihr? Ein Fokus auf die Bedeutung führt dazu, dass eine kleine Anzahl an Referenzsätzen ausreicht, um eine große Anzahl semantisch entsprechender aber unterschiedlich strukturierter Ausdrücke entdecken zu können. Die Technik lässt sich in verschiedenen Bereichen anwenden: Conversational Interfaces, themenbasiertes Matching und die Dokumentenklassifizierung.
Zielpublikum: spezialisierte Analysten, Entwickler, Architekten
Voraussetzungen: Ein grundlegendes Verständnis der gesprochenen Sprache
Schwierigkeitsgrad: Anfänger
Die zunehmende Urbanisierung zwingt Städte zum Handeln. Technologie soll helfen die Infrastruktur einer Stadt effizienter und sicher nutzbar zu machen. Daten aus Sensoren in Kombination mit modernen Analysen sollen Städte smart machen. Smarte Städte wollen:
o Besseren Umweltschutz
o Höhere Sicherheit
o Effizienterer Infrastrukturen
Im Vortrag wird eine Softwarearchitektur vorgestellt, die ihre Bewährungsprobe in der Praxis bestanden hat. Die Kombination dieser Tools gewährleistet eine maximal flexible und hoch skalierbare IoT Plattform.
Zielpublikum: Decision Makers, Data Engineers, Project Leaders
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Anfänger
The past year or two has seen major changes in vendor support for the extended Hadoop ecosystem, with withdrawals, collapses, and mergers, as well as de-emphasis of Hadoop in marketing. Some analysts have even declared Hadoop dead. The reality is more subtle, as this session shows, through an exploration of Hadoop's strengths and weaknesses, history, current status and prospects. Discussion topics include plans for initiating new Hadoop projects and what to do if you have already invested, successfully or otherwise, in data lakes.
Target Audience:
Enterprise-, systems-, solutions- and data architects
Systems-, strategy- and business intelligence managers
Data warehouse and data lake systems designers and developers
Data and database administrators
Prerequisites:
Basic knowledge of data management principles
Experience of designing data warehouses or lakes would be useful
Level: Basic
Extended Abstract:
Hadoop and its extended menagerie of related projects have been responsible for a decade of reinvention in the data management world. On the positive side, projects that would have been impossible with traditional technology have become not only possible but commonplace in today's environment. Hadoop has been at the heart of the explosion of digital business.
However, Hadoop has also been beset by a long list of complaints and problems, particularly relating to data management and systems management. Some of Hadoop's early strengths have been eroded as relational database vendors have upped their game. Furthermore, the rapid growth of Cloud solutions to many massive data delivery and processing projects has impacted Hadoop's commercial viability.
All these factors have led to a questioning of the future of the extended Hadoop ecosystem. This session answers these questions, not just from a technological viewpoint, but in the broader context of existing investments in skills and infrastructure, the direction of digital transformation, and the changing socio-political environment in which business operates.
Das „Projekt GAIA-X“ wird in den Veröffentlichungen des Bundesministeriums für Bildung und Forschung als Wiege eines offenen digitalen Ökosystems gesehen, in dem Daten sicher und vertrauensvoll verfügbar gemacht, zusammengeführt und geteilt werden können. Ziel ist es, gemeinsam mit weiteren europäischen Ländern für Europa, seine Staaten, seine Unternehmen und seine Bürgerinnen und Bürger die nächste Generation einer vernetzten Dateninfrastruktur zu schaffen, die den höchsten Ansprüchen an digitale Souveränität genügt und Innovationen fördert. Der Vortrag bezieht sich auf das (politische) Zielbild, den Prozess der Entstehung, auf die Beteiligten sowie die europäische Integration, um eine öffentliche Diskussion zu begleiten und Interessierte in das Thema einzuführen.
Die Group IT verantwortet innerhalb der Porsche Holding Salzburg das Neuwagen-Reporting für interne Fachbereiche. Sie befindet sich auf dem Weg zu einer modernen, cloudbasierten, analytischen Plattform. Dabei wird auf die Zusammenarbeit mit den Fachanwendern gesetzt, um früh Ergebnisse zeigen und flexibel auf Änderungen reagieren zu können. Der Vortrag behandelt die bisherigen Erfahrungen und geht auf die eingesetzten Techniken und Methodiken rund um Data Vault, DWH Automatisierung, Scrum und der Nutzung moderner Cloud-Komponenten ein.
Zielpublikum: Projektleiter, Teamleiter, Entwickler, Product Owner
Voraussetzungen: Grundlagenwissen DWH und Agile BI
Schwierigkeitsgrad: Basic
Extended Abstract:
Die Porsche Holding Salzburg (PHS) ist das größte Automobilhandelsunternehmen in Europa, tätig in 22 europäischen Ländern, sowie Kolumbien, Chile, China, Malaysia, Singapur, Brunei und Japan. Innerhalb der PHS verantwortet die Abteilung Group IT (PGIT) das Neuwagen-Berichtswesen für angeschlossene Fachbereiche. Bis vor kurzem mit einem kleinen Team und ohne ein DWH als analytische Zwischenschicht, direkt auf den Quellsystemen. Wir begleiten die PGIT aktuell auf dem Weg zu einer modernen, Azure-basierten analytischen Plattform. Von Anfang an wird ein besonderes Augenmerk auf enge Zusammenarbeit mit den Fachanwendern, frühe Ergebnispräsentation und flexible Reaktion auf Änderungen gelegt. Wer hierbei Agile BI vermutet, liegt genau richtig. Ein wichtiges Ziel ist es auch das Analyseteam zukünftig zu entlasten. Hierfür wird angestrebt in den Fachbereichen datengetriebenes Arbeiten und Self-Service BI zu etablieren. Unser Vortrag behandelt die bisher gemachten Erfahrungen und geht auf die eingesetzten Techniken und Methodiken rund um Data Vault, DWH Automatisierung, agiler Vorgehensweise und der Nutzung moderner Azure Cloud-Komponenten ein.
Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet nun im Bereich Business & IT Innovation der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.
Vortrag Teilen
ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. An AI project was started to get reliable + fast results on root cause discovery. Speed is important because production runs 24 hours/7 days a week. The target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.
Target Audience: Production manager, quality manager, CDO, CIO
Prerequisites: none
Level: Basic
Extended Abstract:
The ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. Each transmission is 100% tested in every technical detail before shipment. The plant Saarbrücken is a forerunner and lead plant in innovative Industry 4.0 technologies. Therefore, activities were started to tackle one significant challenge, which is caused by the enormous variant diversity: Finding root-causes for unsuccessful end of line testing. The management of the complexity is a big challenge because transmission parts can be produced in a huge number of variant processes. Process experts from each domain, like quality and testing, assembly departments and manufacturing units, had to spend significant time in analyzing influencing factors for malfunctioning and deciding on best action to prevent end of line test failures.
Therefore, an AI project was started with the objective to get reliable and fast results on root cause discovery. Speed is important because production runs 24 hours / 7 days a week. The sooner the real reasons for malfunctions are discovered, the sooner activities can be implemented to avoid bad quality. This saves a lot of time and reduces significant waste. The Target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.
Complex root-cause findings can be reduced from several days to hours.
ZF's intention with the digitalization approach is to deliver fast information to the people who are responsible for decision processes to keep a plant in an optimal output with high quality products. A self-learning AI solution Predictive Intelligence from IS Predict was used to analyze complex data masses from production, assembly, and quality to find reliable data patterns, giving transparency on disturbing factors/factor combinations. For training algorithms, end to end tracing data was used, made available in a data lake.
Britta Hilt beschäftigt sich seit 2011 mit der Anwenderseite von Künstlicher Intelligenz. Sie ist Mitbegründerin und Geschäftsführerin der KI-Firma IS Predict, die sich einen Namen gemacht durch ihre Automatisierung von Data Science sowie durch erklärende KI. Vor der Gründung von IS Predict war sie über 15 Jahre in einer internationalen IT-Firma (IDS Scheer / Software AG) tätig, zuletzt als Director verantwortlich für Product Management und Solution Marketing.
Das Wasserkraftwerk der Zukunft wird ein 'transparentes Kraftwerk' sein. Das bedeutet, dass umfassende, detaillierte Informationen über den aktuellen und zu erwartenden Zustand der Anlage kontinuierlich verfügbar sind, im Idealfall sekundengenau. Die VERBUND Hydro Power GmbH (VHP) – eines der großen europäischen Wasserkraftunternehmen – will dieses Ziel mit digitalen Zwillingen und virtuellen Sensoren erreichen. Der Einsatz von digitalen Zwillingen wird anhand der Turbine eines Wasserkraftwerks am Beispiel von Verbund Hydro Power gezeigt.
Zielpublikum: Project Manager Digital Transformation, Data Engineer, CDO, Data Scientist, IoT Manager, Industrie 4.0 Manager, Decision Makers
Voraussetzungen: Keine Voraussetzung notwendig
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Das Wasserkraftwerk der Zukunft wird ein 'transparentes Kraftwerk' sein.
Das bedeutet, dass umfassende, detaillierte Informationen über den aktuellen und zu erwartenden Zustand der Anlage kontinuierlich und idealerweise sekundengenau zur Verfügung stehen.
Die VERBUND Hydro Power GmbH (VHP) – eines der großen europäischen Wasserkraftunternehmen – will dieses Ziel mit Digitalen Zwillingen und virtuellen Sensoren erreichen. Der Einsatz von digitalen Zwillingen wird anhand der Turbine eines Wasserkraftwerks am Beispiel der Verbund Hydro Power gezeigt.
Der digitale Zwilling ist das virtuelle Abbild eines bestimmten Assets, das sein physisches Gegenstück über dessen gesamte Lebensdauer begleitet. Seine virtuellen Sensoren liefern Informationen insbesondere in Situationen in denen die reinen Sensordaten nicht ausreichend sind. Verschiedene Arten der Degradation wie Kavitation, Abrasion, Korrosion, Verschmutzung oder Ermüdung können erkannt und in die Zukunft projiziert werden.
Für den Betreiber dient der digitale Zwilling zur Sicherstellung der Verfügbarkeit, zur Durchführung von vorausschauender Wartung und optimiert den Betrieb in Bezug auf Leistung, Betriebszeit oder Betriebskosten.
Dimensionale Datenstrukturen sind besonders für die Anfertigung von Ad-hoc-Analysen geeignet, da diese der natürlichen Sicht entsprechen, die die Fachanwender auf ihren Geschäftsbereich haben. Der Aufbau dieser Strukturen ist allerdings aufwändig, wodurch diese nur für stabile Datenstrukturen geeignet sind. Diese sind allerdings gerade im Kontext von Self-Service-Analysen meist nicht gegeben. In diesem Beitrag wird ein Konzept beschrieben, durch das eine flache Tabelle (semi-)automatisch in ein Sternschema transformiert werden kann.
Zielpublikum: Data Engineer, Data Analyst
Voraussetzungen: Grundkenntnisse in der dimensionalen Datenmodellierung
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Self-Service-Business-Intelligence-Anwendungen erlauben es Fachanwendern, eigenständig Berichte und Analysen zu erstellen, ohne selbst über ausgeprägte technische Kenntnisse zu verfügen. Eine der am häufigsten verwendeten Datenquellen sind hierbei Flat Files. Dies liegt darin begründet, dass flache Strukturen häufig für den Austausch und die Bereitstellung von Daten genutzt werden. Außerdem sind flache Strukturen leicht und ohne den Einsatz komplexer Softwareprodukte zu erzeugen, selbst wenn die Ursprungsdaten aus verschiedenen Quellen stammen. Als Grundlage für das Ad-hoc-Reporting sind flache Strukturen jedoch weniger geeignet, da sie aufgrund der hohen Anzahl an Attributen schnell unübersichtlich und komplex wirken können. Wesentlich geeigneter für das Erstellen von Analysen sind stattdessen dimensionale Datenstrukturen. Diese sehen die Aufteilung zusammengehöriger Daten in Dimensionen vor und werden in traditionellen BI-Umgebungen dazu verwendet, Ad-hoc- oder OLAP-Analysen durzuführen. Die Ausweitung des Anwendungsbereichs von Business-Intelligence-Systemen auf operative Fragestellungen in den letzten beiden Jahrzehnten hat zu heterogenen Anwendergruppen mit neuen, sich häufig ändernden Anforderungen geführt. Der Aufbau und die Betreuung einer großen Anzahl dimensionaler Strukturen ist durch Business-Intelligence-Experten jedoch in der Regel nicht zu leisten, wodurch diese Form der Modellierung, trotz ihrer offenkundigen Vorteile, in den letzten Jahren an Bedeutung verloren hat. Durch das, in diesem Beitrag vorgestellte Konzept, wird es Self-Service-Anwendern möglich, eigenständig dimensionale Modelle zu erstellen, ohne auf die Expertise von Fachleuten zurückgreifen zu müssen. Der Ablauf der Ad-hoc-Sternschema-Generierung kann dabei in drei Phasen unterteilt werden. In der ersten Phase erfolgt nach Identifizierung der Datentypen einer jeden Tabellenspalte die Transformation der flachen Tabelle in das Sternschema. Für die Identifizierung und Zusammensetzung der Dimensionstabellen wird ein Verfahren, basierend auf der Ermittlung funktionaler Abhängigkeiten, verwendet. In der zweiten Phase sind die generierten Ergebnisse manuell zu evaluieren und falls nötig zu korrigieren. In der dritten Phase werden die identifizierten Dimensions- und Faktentabellen mit Werten gefüllt und als separate Dateien ausgegeben.
Prof. Dr. Michael Schulz hält eine Professur für Wirtschaftsinformatik, insb. analytische Informationssysteme an der NORDAKADEMIE - Hochschule der Wirtschaft in Elmshorn und ist Studiengangsleiter des Master-Studiengangs 'Applied Data Science'. Seine Interessenschwerpunkte in Lehre, Forschung und Praxisprojekten liegen in der Business Intelligence und der Data Science. Er ist einer der Autoren des DASC-PM-Konzeptes.
Vortrag Teilen
Der agile Antrieb von Scrum – Das Backlog Refinement
Flughäfen sind eine komplexe Echtzeit-Umgebung, für die es in vielen Fällen keine passende Standardsoftware gibt. Um in Zeiten von hoher Auslastung das Risiko von Verspätungen zu reduzieren, welche schnell den europäischen Luftraum durch Kettenreaktionen beeinflussen können, muss die Software auf die speziellen Herausforderungen der Infrastruktur des jeweiligen Flughafens angepasst werden. Doch, wie plant und koordiniert man nachhaltig Lösungen in solch einer hochkomplexen Umgebung?
Zielpublikum: Project leader, decision makers, Scrum Master, Devloper, Product Owner
Voraussetzungen: SCRUM Basics
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Für Jeff Sutherland, Mitbegründer von SCRUM, ist das Backlog Refinement das Rückgrat eines funktionierenden Scrum Teams. Doch wie kann dieses wichtige Event erfolgreich etabliert werden? Der Scrum Guide widmet dem Event lediglich einen kurzen und knappen Absatz.
Bei der Entwicklung einer disruptiven Lösung, einer automatisierten Dispositionssoftware für Bodenverkehrsdiensten an einem großen Flughafen, bestätigte sich Sutherlands Theorie zum Backlog Refinement. Das Event wurde eines der wesentlichen Erfolgsfaktoren für die Umsetzung des agilen Projekts. Und das, obwohl oder geradeweil die Voraussetzungen für das Projekt sehr herausfordernd waren:
o ein komplexes Produktportfolio mit vielen Abhängigkeiten zwischen den unterschiedlichen Lösungen
o einem Geschäftsführer als Product Owner, der dem Team nur Teilzeit zur Verfügung stand
o keine Möglichkeit Business Analysten einzubinden
o Expertenwissen, welches nur in den jeweiligen Silos vorhanden war
o einer knappen Vision und keine ausformulierten Anforderungen an das Produkt
o die Gefahr am Flughafen durch Kettenreaktionen bei Verspätungen den Transport von Passagieren am gleichen Tag zu gefährden oder wichtige Slotzeiten für den Luftraum zu verlieren
o eine große Anzahl von kritischen Stakeholdern
Nils Hyoma wird in seinen Vortrag zeigen, wie sein Team dank des Refinements mit den komplexen Aufgaben zurechtgekommen ist. Hierbei wurden etwa nach und nach kritische Stakeholder gezielt integriert, die Software-Entwickler in die Verantwortung für Anforderungsermittlung genommen sowie durch Kollaboration mit anderen Teams Abhängigkeiten aufgelöst und Releases koordiniert.
Das geplante und strukturierte Event wurde neben der Entwicklung der Software auch zum Antrieb des Change-Managements sowie der agilen und digitalen Transformation genutzt.
Der Vortrag basiert auf Erfahrungen, welche in einem agilen Projekt in einer sehr komplexen Umgebung gewonnen worden sind und lebt von diesen. Nils Hyoma wird einige Ansätze zeigen und dann erläutern, was der Nutzen dieser ist. Er wird eine von vielen Möglichkeiten aufzeigen das unterschätze Event zielführend zu nutzen.
KI ist in der Fachwelt gerade in aller Munde. Ab was ist Chance, was ist Hype? Wir setzen Natural Language Processing seit vielen Jahren in der Qualitätssicherung von Anforderungen und Tests ein. Beispiele sind die automatische Prüfung von Anforderungen und Testgenerierung aus User Stories. In diesem Vortrag zeigen wir an konkreten Beispielen auf, was möglich ist und wo die Grenzen sind. Damit wollen wir die großen Chancen der Textanalyse aufzeigen, ohne in Buzzwords zu verfallen.
Zielpublikum: Decision Makers, Business Analysts, Data Engineers
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger
Extended Abstract:
In Wissenschaft und Praxis herrscht Revolutionsstimmung. Sprachassistenten simulieren natürliche Gespräche, Wetter- und Sportberichte werden automatisch generiert ohne, dass ein Mensch beteiligt ist, Systemüberwachung funktioniert automatisch per Anomalie-Erkennung oder man schiebt gleich das ganze Word-Dokument in einen automatischen Übersetzer. Der Eindruck von unendlichen Möglichkeiten drängt sich auf – auch in der Qualitätssicherung. Aber wie viel von diesen Ansätzen funktionieren in der Praxis wirklich – oder ist die Revolutionsstimmung tatsächlich nur eine Goldgräberstimmung?
Wir setzen Natural Language Processing (NLP) Techniken seit vielen Jahren bei mittlerweile über 60 Projekten in Automotive und Versicherungsbereich täglich zur Qualitätssicherung von Software ein. Täglich werden Millionen von Worten Text durch unsere Analysen gejagt. Beispiele sind die automatische Prüfung von Anforderungen, Testgenerierung aus User Stories oder automatisierte Traceability Analysen. Weiterhin machen wir immer wieder Studien mit unterschiedlichsten Machine-Learning- bzw. Artificial-Intelligence Ansätzen (ML/AI) um herauszufinden, ob der Stand der Technik reicht, um in der Qualitätssicherung produktiv eingesetzt zu werden.
Dabei ergibt sich ein etwas differenzierteres Bild davon, was mit NLP, ML und AI möglich ist. In diesem Vortrag zeigen wir drei Dinge auf:
Erstens, was ist der Stand der Technik? Welche Fähigkeiten bieten moderne Ansätze und welche Rollen in der Qualitätssicherung können wie profitieren.
Zweitens, wo sind dabei die Herausforderungen? Bei der Anwendung der Methoden zeigen sich schnell technische Herausforderungen (z.B. Echtzeitfähigkeit), Herausforderungen mit Daten (z.B. Grammatikanalysen auf englische Texte von Nicht-Muttersprachlern) und Herausforderungen auf der menschlichen Ebene (z.B. Akzeptanz).
Drittens, wo sind die Grenzen? In einer wissenschaftlichen Studie haben wir ganz konkret an Unternehmensguidelines analysiert, welche Aspekte von Qualität automatisiert prüfbar sind und welche nicht. Aus dem, was nicht möglich ist, lässt sich eine einfach anwendbare Checkliste erstellen, die mir sagt, welche Themen ich sinnvoll angehen kann und wovon ich die Finger lassen muss.
Dieser Vortrag zeigt Entscheidern und Anwendern also die großen Chancen der Textanalyse auf, ohne in unrealistische Erwartungen oder gar Buzzwords zu verfallen.
Der Vortrag präsentiert aktuelle Entwicklungen in der Anwendung von KI insbesondere im Kontext von Digital Twins im Automobilbereich. Konkrete Einsatzszenarien und Erfahrungen aus der Praxis zeigen, wie durch Analyse von Daten aus heterogenen Quellen neue Produkte und Services entwickelt, sowie Prozesse und Planungen optimiert werden können und zeigen die Potenziale für den Einsatz von KI im Automobilbereich. Aktuelle Chancen und Herausforderungen des Einsatzes von KI in Unternehmen werden diskutiert.
Zielpublikum: Softwareentwickler, Architekten, Projektleiter
Voraussetzungen: Grundsätzliche Kenntnisse über die Methoden der Künstlichen Intelligenz
Schwierigkeitsgrad: Anfänger
Extended Abstract:
1) Smart Data Analytics im Automobilbereich: aktuelle Entwicklungen in der datenbasierten Digitalisierung
2) Konkreten Einsatzszenarien für Data Science und Methoden der Künstlichen Intelligenz in datengetriebenen Geschäftsprozessen
3) Neue Produkte und Services mittels unternehmensübergreifender Analyse von Daten aus heterogenen Quellen
4) Optimierung von Prozessen und Planungen
5) Relevante technische Ansätze und Erfahrungen aus der Praxis.
This session looks at how data science workbenches and machine learning automation tools can help business analysts to become data scientists and so meet the demand of business.
Target Audience: CDO, Head of Analytics, Data Scientist, Business Analysts, CIO
Prerequisites: Basic understanding of Data Science
Level: Advanced
Extended Abstract:
The demand for analytics is now almost everywhere in the business. Analytics are needed in sales, marketing and self-service, finance, risk, operations, supply chain and even HR. However, the current shortage of data scientists and the reliance on detailed skills such as programming, has led many corporate executives to question current approaches to development of high value analytical models and ask if they can be accelerated in any way to improve agility and reduce time to value. This session looks at this problem in detail and at how emerging data science workbenches and machine learning automation tools can help reduce the reliance on highly skilled data scientists and allow business analysts to become data scientists and so meet the demand of business.
o The explosion in demand for analytics
o Data science and the modern analytical ecosystem
o Challenges with current approaches to analytics
o Requirements to reduce time to value and accelerate development of analytical models
o Improving productivity by integrating Information catalogs and data science workbenches, e.g. Amazon SageMaker, Cloudera CDP Machine Learning, IBM Watson Studio Microsoft, Azure ML Service,
o Accelerating model development, monitoring and model refresh using ML automation tools, e.g. DataRobot, SAS, Dataiku Data Science Studio, Big Squid
o Facilitating rapid analytics deployment via analytics as a service to maximise effectiveness and competitive edge
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Das vorliegende Forschungsvorhaben fokussiert die Unterstützung von Business-Anwendern bei der Identifikation, Modellierung und Umsetzung von KI-Projekten. Hierfür wurde ein Vorgehensmodell entwickelt, welches Business-Anwender vom Scouting für geeignete Anwendungsfälle, über das high-level Design und die Konfiguration der KI-basierten Applikation bis zur Umsetzung des Projektes begleiten. Das Modell besteht aus dem KI-Periodensystem, Der KI-Applikations-Taxonomie sowie einem Artefakt zur Umsetzung von KI-Projekten, welches sich derzeit in der Validierungsphase befindet. Das KI-Periodensystem erlaubt im ersten Schritt des Modells die Auswahl von KI-Funktionalitäten entlang eines Agenten-basierten Ansatzes und ermöglicht dem Anwender somit die Erstellung eines high-level Design. Da die Funktionalitäten jeweils mit den menschlichen Intelligenzformen hinterlegt sind, ermöglicht das Artefakt zusätzlich die Diskussion zu den organisatorischen Auswirkungen im unmittelbaren Umfeld der potenziellen KI-Applikation. Im zweiten Schritt des Vorgehensmodells wird das KI-basierte System ebenfalls entlang der Agenten-basierten Perspektive konfiguriert. Die Komponenten und Charakteristika der KI-Applikations-Taxonomie ermöglichen dem Anwender eine gezielte Konfiguration der Anwendung, welche anschliessend als Grundlage für die Spezifikation der Anforderungen an das jeweilige System genutzt werden können. Die Taxonomie eignet sich ausserdem zur strategischen Analyse von Konkurrenz-Applikationen oder zur Auswahl beim Einkauf KI-basierter Applikationen. Im dritten und letzten Schritt des Vorgehensmodells wird die Umsetzung des KI-Projektes entlang des Data Science-/CRISP-Prozesses inkl. in den jeweiligen Projektabschnitten beteiligten Rollen und Risiken dargestellt. Hierbei sollen Business-Anwender nicht nur bei der Orientierung innerhalb des Projektes unterstützt werden, sondern vor allem zur Kommunikation befähigt werden. Aufgrund dessen enthält das dritte Artefakt einen reichhaltigen Fundus an KI-Algorithmen, welche den jeweiligen Projektphasen zugeordnet und definiert sind. Somit erhält der Business-Anwender nicht nur einen Überblick über das gesamthafte Vorgehen zur Umsetzung des KI-Projektes, sondern wird befähigt, die KI-spezifische Terminologie zu verstehen und anzuwenden. Die zuvor genannten Artefakte wurden bzw. werden basierend auf dem Design Science Research-Ansatz in einem Konsortialforschungsprojekt sowie mittels Literaturanalysen, Umfragen und Fokusgruppen-Interviews entwickelt. Das Vorgehensmodell soll in seiner Gesamtheit einen Beitrag zur Umsetzbarkeit von KI-Projekten und zum KI-Verständnis für Business-Anwender leisten. Andererseits bieten die enthaltenen Artefakte Unterstützung bei der Analyse und Auswahl von KI-Systemen, Konfigurationen und Algorithmen und halten gemäss der Rückmeldungen von Experten grossen Mehrwert für die Praxis bereit, bei einigen Unternehmen befinden sich die Artefakte bereits im Einsatz. Ziel der Präsentation ist die kritische Diskussion der Zusammenhänge zwischen den einzelnen Artefakten sowie die Auseinandersetzung mit dem Modell zur Auswahl von KI-Algorithmen im vierten und letzten Schritt des Vorgehensmodells.
70% aller deutschen Unternehmen und Institutionen sind von Cyberkriminalität betroffen und die Bedrohungslage sowie die Schäden durch Cyberkriminalität steigen stetig weiter an (BSI, 2018, S. 15; BKA, 2017). Um sich dieser Bedrohung zu stellen, kommen immer häufiger auch Intrusion-Detection-Systeme zum Einsatz. Künstliche Neuronale Netzwerke der Adaptiven Resonanztheorie sind dabei in der Lage eine grundlegende Frage zu lösen: Wie kann ein solches System automatisch neuartige Angriffe erkennen und in seine Wissensrepräsentation integrieren?
The engagement of IT staff in organizations has been done for decades via a single function or department. Whatever title it bears, the single counter IT takes care of everything under the digital sun. This model generates unhealthy behaviors in the IT ranks that are detrimental to the enterprises that need digital to operate, evolve, transform —or survive.
Drawing a parallel with a more mature industry, the current distribution of roles is analyzed and compared. It shows that the standard structure is creating conflicts of roles that would be unacceptable —and in some cases illegal— in many other fields of work.
The typical IT engagement model in organizations has a direct effect on what constitutes success and how it is measured. These measures -in their current state- create a ripple effect on quality and value of digital investments.
You should come to the inevitable conclusion: it is more than time to radically re-think how technology teams engage in organizations.
Um die wachsende Anzahl Nutzer und damit steigende Anforderungen an einem System bewältigen zu können, sowie die Effizienz und Qualität des Entwicklungsprozesses zu steigern, haben sich in der klassischen Softwareentwicklung Prinzipien, wie Continuous Integration (CI) und Test Driven Development (TDD) durchgesetzt. Dieses Seminar möchte beantworten, was hinter CI und TDD steckt und wie diese Prinzipien in den Lifecycle von DWH-Systemen eingebunden werden.
Zielpublikum: BI/DWH Entscheider, BI/DWH Programm- und Projektleiter, BI/DWH Architekten und Entwickler, interessierte IT- und Fachbereichsverantwortliche und Anwender Voraussetzungen: Voraussetzung sind grundlegende Kenntnisse in den Bereichen Daten- und Informationsmanagement. Fortgeschrittene Expertise in den Bereichen Data Warehouse Konzeption, Architektur, Entwicklung und Betrieb ist vorteilhaft. Schwierigkeitsgrad: Fortgeschritten
Data Science hat sich mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert. Nun gilt es einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann. Anhand eines Use Case aus der Versicherungsbranche wird aufgezeigt, wie sich Data Science verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.
Zielpublikum: Data Scientist, Projektmanager, Entscheidungsträger, KI-Verantwortliche
Voraussetzungen: Grundlegende Kenntnisse der Data Science sind für den Talk von Vorteil, stellen aber keine Muss-Anforderung dar.
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Nachdem sich Data Science mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert hat, gilt es nun einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann.
Der Beitrag gibt einen Überblick zum Status quo der Data Science Nutzung in Unternehmen und stellt aktuelle Trends vor. Im Anschluss wird anhand eines Use Case aus der Versicherungsbranche konkret aufgezeigt, wie sich Data Science im Wertschöpfungsprozess verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.
Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe (HKA). Dort vertritt er u. a. die Bereiche Business Intelligence und Projektmanagement im Fachgebiet Informatik. Den Bachelor Studiengang 'Data Science' an der HKA hat er maßgeblich mitgestaltet. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
Dr. Michael Zimmer verantwortet bei der Zurich Gruppe Deutschland das Thema künstliche Intelligenz. Hierbei beschäftigt er sich sparten- und ressortübergreifend mit der Identifikation, Entwicklung, Produktivsetzung und Industrialisierung von KI-Anwendungsfällen. Er ist Autor und Herausgeber diverser Publikationen und TDWI Fellow. Vor seiner Zeit bei der Zurich Deutschland war er fast 14 Jahre in der Beratung tätig.
In einem pragmatischen Erfahrungsbericht erklärt Siemens Mobility wie sie mit der Railigent Plattform die Digitalisierung in einem sehr traditionellen Umfeld etablieren. Dabei ist immer der erzielte Nutzen im Fokus des Projektes. Betreiber von Zügen profitieren von einem daten-getriebenen Ansatz durch reduzierte Wartungskosten und optimierten Nutzungsgrad. Visuelle Analytik ist nur der Anfang, wenn Predictive Analytics Zusammenhänge aufzeigt und Echtzeit-Informationen Entscheidungen beim operationalen Betrieb der Züge verbessern.
Zielpublikum: Entscheider, CDO, CIO, Leiter CC, Architekten
Voraussetzungen: Basic understanding of buisiness value in analytics
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Business Challenge:
To prevent delays due to equipment failures, Siemens Mobility needed to provide fast, accurate insights to customers through its app. The company needed real-time analytics for both IoT and legacy data.
Solution:
With the Railigent platform, Siemens customers get insights via Railigent, the Siemens Mobility app. The app allows for automated corrective action and quick decision-making.
Predicting failures before they occur is possible with data analysis at the edge. Siemens collects every piece of data it can – most of which is collected via sensors at the edge – then cleans and prepares it for analysis. Some trains have nearly 2,000 components that must be monitored while they are traveling; for example, to detect vibration patterns of train bearings. Older trains pose difficult data challenges, but the company still needs to be able to monitor and measure their performance and make improvements.
Dirk Schober ist ein Experte darin, Herausforderungen beim Kunden zu identifizieren und zu beschreiben. Er hat über 12 Jahre Erfahrung im Design von Lösungen rund um Analytics und das damit verbundene Datenmanagement. Er arbeitet als Presales Experte bei TIBCO und vormals bei IBM. Fokusbereiche sind durchgängige 'data-driven' Lösungen in der Fertigung, Industrie, Handel und im Bereich Pharma.
Analytics team are struggling to create, publish, and maintain analytics to meet demand. Many analytics projects fail to meet expectations and deliver value. DataOps is the new approach combining tools and approaches to simplify the development of analytics and ensuring high quality data. DataOps shortens the life cycles, reduces technical debit and increases analytics success. This session covers the best practices for the analytics team to deliver DataOps.
Target Audience: Data scientists, project leaders, analyst, data engineers, project sponsors, business leaders
Prerequisites: None
Level: Professional
Extended Abstract:
DataOps is the next generation of analytics delivery that addresses the major issues of analytics technical debt, reuse of code, data quality, and incorporates the flexibility of agile. This session defines what DataOps is (it is not DevOps) and highlights the best practices to address some of the largest challenges preventing analytics teams from delivering analytics value. The session outlines how DataOps is used to inspire teamwork, improve data quality, incorporate agile delivery, and establish an environment for reuse and innovation.
Durch die Integration digitaler Zahlungsströme in ein IoT-System werden Interaktion zwischen Objekten um eine wirtschaftliche Komponente erweitert. Dies schafft die Grundlage für ein digitales und offenes Wirtschaftssystem – die Economy of Things (EoT). Hierbei soll untersucht werden, welche Voraussetzungen eine EoT erfüllen muss, um einen Mehrwert in der Praxis zu stiften. Ziel der Arbeit ist es, ein Modell für die Gestaltung einer solchen EoT zu erstellen und zu evaluieren.
Systeme zur Defekterkennung und Qualitätssicherung in der Produktion verfolgen das Ziel, Ausschussraten zu minimieren und Qualitätsstandards einzuhalten. Die dadurch angestrebte Reduktion der Produktionskosten folgt dem übergeordneten Ziel, der Maximierung der Wertschöpfung. Zu diesem Zweck lassen sich bildbasierende- sowie analytische Methoden und Techniken kombinieren. Die Konzepte Computer Vision und Image Mining bilden hierbei die Grundlage, um aus Bilddaten einen Wissensgewinn im Hinblick auf die Produktqualität zu generieren. Im Rahmen dieses Vortrags werden die Unterschiede und Gemeinsamkeiten der beiden Konzepte erläutert und anhand eines Prototyps für die Additive Fertigung erklärt.
Sebastian Trinks ist wissenschaftlicher Mitarbeiter und Doktorand am Institut für Wirtschaftsinformatik an der TU Bergakademie Freiberg. Seine Forschungsinteressen sowie der Schwerpunkt seiner Dissertation liegen im Spannungsfeld der Industrie 4.0 sowie der Smart Factory. Herr Trinks forscht in diesem Kontext zu Themen aus den Bereichen Image Processing, Computer Vision, Real Time Analytics sowie Edge Computing.
Für jede Transformation gilt: Sie ist der Übergang vom Bewährten zum Neuen! Es versteht sich, dass es dabei Befürworter und Skeptiker gibt. Beide Parteien wollen dabei nur das Beste für ihre Organisation und folgen einer in sich schlüssigen Logik. Mit der Zeit entstehen Gräben und es bilden sich Fronten. Dies mündet in einen Teufelskreis, der die Zusammenarbeit erschwert und in Kompromisse, die am Ende beiden Lagern recht geben. Der Referent zeigt anhand von Kundenbeispielen wie Führungsteams in vier Schritten gemeinsam die Zukunft gestalten.
Zielpublikum: Project leader, decision makers, Transformation Leads
Vorraussetzungen: Transformationserfahrung oder Erfahrung mit komplexen Projekten und Veränderungen
Schwierigkeitsgrad: Fortgeschritten
Die Wertschöpfung durch Daten ist heute ein zentrales Thema. CDOs werden installiert, BICCs als zentrale Einheiten für die Schöpfung von Potenzialen der Daten geschaffen. In der Operationalisierung stellt sich dann schnell heraus, dass es eines Fundamentes bedarf. Data Governance gibt Antworten auf diese Fragen. Das Data Governance Starterkit DB ermöglicht einen strukturierten Einstieg ins Thema, gibt Orientierung, macht den Standort transparent und weist den Weg.
Zielpublikum: CDO, CIO, Data Office, Data Council, Verantwortliche für datengetriebene Initiativen und Programme
Voraussetzungen: Ambitionen im Kontext datengetriebener Initiativen
Schwierigkeitsgrad: Fortgeschritten
How is machine learning used in the real world? How did our customer Liebherr mitigate the problem of unreliable suppliers, therefore making their manufacturing process more efficient? How can our customers work their way through thousands of documents, quickly identifying the relevant ones? In this talk, Data Scientist Björn Heinen will elaborate on his past and current projects in the manufacturing industry by explaining how tangible customer problems have been solved using classical machine learning algorithms, computer vision and more.
Target Audience: The session is intended to reach those interested who are working in the machine and system engineering industry or those in other sectors who would like to optimize their processes with the help of AI and use business data successfully in the long term.
Prerequisites: No prerequisites needed.
Level: Basic
Kubeflow ist ein mächtiges Framework für die Entwicklung, Überwachung und Operationalisierung von KI. Die Ressourcen für das Trainieren, Optimieren oder das Serving der Modelle stellt Kubeflow 'As a Service' bereit. Einzelne Schritte werden in einer Pipeline mit Kubernetes in einem Cluster ausgeführt – On Premise, in der Cloud oder Hybrid in verschiedenen Umgebungen. Dabei werden notwendige Ressourcen dynamisch allokiert. In einer Live Demonstration wird Kubeflow zusammen mit Tensorflow und Tensorflow Extended (TFX) vorgestellt.
Zielpublikum: Data Scientists, project leader,
Voraussetzungen: Grundkenntnisse KI
Schwierigkeitsgrad: Advanced
Extended Abstract:
Kubeflow ist eine auf Kubernetes aufsetzende Applikation, die aus mehr als 80 einzelnen Microservices zusammengestellt ist. Kubeflow ist von Google entwickelt worden und als Open Source Projekt veröffentlicht worden. Kubeflow läuft auf Kubernetes und damit wahlweise in der Cloud oder On Premise. Alle großen Cloudprovider bieten Kubeflow 'as a Service' an, was das Provisioning sehr einfach macht. Kubeflow setzt auf Argo als Workflow Engine auf. Einzelne Schritte wie die Datenvalidierung, die Modellerstellung, das eigentliche Trainieren oder das Serving, also die Verwendung von KI in den operativen Prozessen eines Unternehmens, werden von Argo orchestriert. Kubeflow kann als Multi-Tenant Solution aufgesetzt werden, um unterschiedliche Projekte und Kunden gleichzeitig zu unterstützen. Selbstverständlich ist Kubeflow Multi-User fähig und bringt eine eigene Benutzerverwaltung mit. Die Entwicklung geschieht über Notebook-Server, die Jupyter Notebooks dem Entwickler zur Verfügung stellen.
Kubeflow kann mit anderen KI-Frameworks, beispielsweise Tensorflow und Tensorflow Extended (TFX) kombiniert werden. Alle Prozesse werden als Pipeline designed und ausgeführt. Die Überwachung der Pipelines geschieht über einen Metadata Store. Dies beinhaltet vom Data Scientist definierte Metriken zur Überwachung ebenso wie einen direkten Zugriff auf Tensorboard für eine weiterführende Analyse. Die dafür notwendigen Artefakte werden in Minio persistiert, einem Open Source Object Store.
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz.
Zielpublikum: Data Engineer, Data Scientist, Project Leader, Decision Makers
Voraussetzungen: Basic AI Knowledge
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.
In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.
Martin Förtsch ist ein IT-Berater der TNG Technology Consulting GmbH mit Sitz in Unterföhring bei München und studierte Informatik. Seine Arbeitsschwerpunkte sind Agile Development (hauptsächlich) in Java, Suchmaschinentechnologien, Information Retrieval und Datenbanken. Als Intel Software Innovator und Intel Black Belt Software Developer ist er darüber hinaus intensiv in der Entwicklung von Open-Source-Software im Bereich der 3D-Kameratechnologien und dem Internet of Things involviert. Darüber hinaus hält er zahlreiche Vorträge auf nationalen und internationalen Konferenzen zu den Themen Künstliche Intelligenz, Internet der Dinge, Augmented Reality und Test-Driven Development. Er wurde u.a. mit dem Oracle JavaOne Rockstar ausgezeichnet.
Thomas Endres ist studierter Informatiker (TU München) und leidenschaftlicher Softwareentwickler. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.
Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Vortrag Teilen