Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.
- Montag
21.06. - Dienstag
22.06. - Mittwoch
23.06.
Further information will follow shortly.
Die Wertschöpfung durch Daten ist heute ein zentrales Thema. CDOs werden installiert, BICCs als zentrale Einheiten für die Schöpfung von Potenzialen aus Daten geschaffen. In der Operationalisierung stellt sich dann schnell heraus, dass es eine umfassende Datenstrategie benötigt wird.
Fragen nach: wie können wir Daten nutzen, um daraus direkt oder indirekt einen Mehrwert zu generieren häufen sich. Eine umfassende Datenstrategie gibt eine Antwort auf diese zukunftsweisende Frage.
Zielpublikum: CIO / CDO, Verantwortliche für datengetriebene Initiativen und Programme
Voraussetzungen: Ambitionen im Kontext datengetriebener Initiativen
Schwierigkeitsgrad: Fortgeschritten
Over the last few decades, ETL and specially Datawarehouse testing has been gaining quite a bit of traction. The reason for that traction? The modern enterprise's dependency on data. This dependency calls for the right testing strategy to ensure the quality and correctness of the provided data. Further on the drive to lower 'time to data' and overall costs is putting high pressure on Test specialists to increase efficiency in this area. In this presentation I want to show you our journey to daily regression in our enterprise data warehouse.
Target Audience: Testers, Test Managers, Project Leaders, Decision Makers, Data Engineers, Managers
Prerequisites: none
Level: Basic
Extended Abstract:
Over the last few decades, ETL and specially data warehouse testing has been gaining quite a bit of traction. Especially given the emergence of Agile and DevOps as top trends in the software development industry. The reason for that traction? The modern enterprise's dependency on data.
This dependency calls for the right testing strategy and execution to ensure the quality and correctness of the provided data.
Further on the drive to lower 'time to data' and overall costs is putting high pressure on Test specialists to increase efficiency in this area.
In this presentation I want to show you our journey to daily regression in our data warehouse.
We improved our processes and changed our testing approach. We started with a quarterly regression test which took a whole testing team of 10 people 2 months to finish.
Now we do the same on a daily basis within our agile team.
Big data is not the biggest change in the IT industry but data usage. To become more data driven and to succeed with their digital transformation, organizations are using their data more extensively to improve their business and decision processes. Unfortunately, it is hard for current data delivery systems to support new styles of data usage, such as data science, real-time data streaming analytics, and managing heavy data ingestion loads. This session discusses a real big-data-ready data architecture.
Target Audience: Data architects, data warehouse designers, IT architects, analysts, enterprise architects, solutions architects
Prerequisites: Some understanding of data architectures
Level: Advanced
Extended Abstract:
It is not big data that is the biggest change in the IT industry, it is data usage that has changed most drastically the last ten years. To become more data driven and to succeed with their digital transformation, organizations are using their data more extensively to improve their business and decision processes. This may mean that more data needs to be collected resulting in big data systems, but the goal remains to do more with data. Unfortunately, current data delivery systems don't have the right characteristics for supporting the requirements of big data systems, such as supporting data science, handling massive data streaming workloads, managing heavy data ingestion loads, and so on. Additionally, many organizations that are developing big data systems, are developing isolated data delivery systems, such as an isolated data lake, an isolated data streaming system, an isolated data services system, and so on. This avalanche of data delivery systems is not beneficial to the organization. The wheel is invented over and over again. It's time to design real big-data-ready data architectures. This session discusses such an architecture, including the supporting technologies, pros and cons.
Der Vortrag präsentiert aktuelle Entwicklungen in der Anwendung von KI im Versicherungsbereich. Konkrete Einsatzszenarien und Erfahrungen aus der Praxis zeigen, wie durch Analyse von Daten aus heterogenen Quellen neue Produkte und Services entwickelt, sowie Prozesse und Planungen optimiert werden können und zeigen die Potenziale für den Einsatz von KI in Versicherungen. Aktuelle Chancen und Herausforderungen des Einsatzes von KI in Unternehmen werden diskutiert, insbesondere die zunehmenden Erwartungen an eine transparente und faire KI.
Zielpublikum: Softwareentwickler, Architekten, Projektleiter in der Finanzbranche
Voraussetzungen: Grundsätzliche Kenntnisse über die Methoden der Künstlichen Intelligenz
Schwierigkeitsgrad: Anfänger
Extended Abstract:
1) Smart Data Analytics im Versicherungsbereich: aktuelle Entwicklungen in der datenbasierten Digitalisierung
2) Konkreten Einsatzszenarien für Data Science und Methoden der Künstlichen Intelligenz in datengetriebenen Geschäftsprozessen
3) Neue Produkte und Services mittels unternehmensübergreifender Analyse von Daten aus heterogenen Quellen
4) Optimierung von Prozessen und Planungen
5) Relevante technische Ansätze und Erfahrungen aus der Praxis.
Ein Tischfußball wurde mittels Kamera, Sensoren und Computer digitalisiert und liefert nun Spielanalysen in Echtzeit. Der interaktive Workshop, aufgeteilt in einen theoretischen und einen praktischen Teil, erläutert und erklärt anschaulich, wie hier eine 'lernende Bildverarbeitung' mittels Algorithmus YOLO (You Only Look Once) und Skriptsprache Python programmiert wurde. Darüber hinaus gibt der Workshop einen Ausblick auf die Anwendung von Bilderkennung in einem Business Kontext.
Zielpublikum: alle, die an Machine Learning, Bildverarbeitung und Objekterkennung interessiert sind, Entwickler
Voraussetzungen: Scripting-Grundlagen in Python und statistisches Grundwissen sind von Vorteil und natürlich Interesse
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Vorbemerkung:
Zur anschaulichen Erklärung von Themen wie KI, Machine Learning oder Datastreaming hat PROCON IT einen Kickertisch mit Highspeedkamera und Sensoren versehen und ihn so digitalisiert. Dieser digitalisierte Kicker ist nun in der Lage, das Spiel live zu verfolgen und verschiedene Dinge ebenfalls live auszuwerten, bspw. wird eine Headmap gezeigt, der Spielstand wiedergegeben, die Schussgeschwindigkeit bestimmt.
Wie kann ein System über Bilder einer Highspeedkamera, die es von einem Tischfußballspiel macht, in Echtzeit Daten wie Ballgeschwindigkeit oder eine Headmap der aktuellen Partie generieren? Das System muss gelernt haben, was auf dem Bild der Ball ist, was die Spieler sind und zu welchem Team die Spieler gehören. Der interaktive Workshop führt nach einer kurzen theoretischen Einführung die Teilnehmer mitten in die Praxis der Bildverarbeitung. Gemeinsam werden u.a. Bilder klassifiziert, ein Modell trainiert und die Ergebnisdaten ausgewertet. Die Teilnehmer lernen dabei, wie dies mithilfe der Skriptsprache Python und dem Algorithmus YOLO in der Praxis umgesetzt werden kann. Gemeinsam wird anschließend die Möglichkeiten von Bilderkennung in einem Business Kontext erörtert.
Data volumes are exploding, and companies are striving to use advanced analytics for more data-driven insights and self-learning systems. Enabling scalable data onboarding and analytics delivery processes with little human intervention but strong governance is key to extract value from Big Data and Analytics successfully. The CC CDQ has developed a framework for governing Big Data and Analytics in close collaboration with industry partners. The framework supports practitioners to setup processes, roles and tools to scale analytics use cases.
Target Audience: Analytics Manager, Data Manager, Project Leader
Prerequisites: Basic knowledge and some experience in analytics or data management
Level: Basic
Using distributed databases across various microservices will be explained based on a research project example. The presentation elaborates of how to achieve data consistency across microservices, how to communicate using message brokers, how to scale the microservices and achieve high application availability. Container virtualization and orchestration are technology basis for the solution. The project example shows of how to build an Artificial Intelligence (AI) solution – as a service!
Target Audience: Data Engineer, Data Scientist, Project leader, Architects
Prerequisites: Common understanding of database technology and architecture
Level: Advanced
Extended Abstract:
Developing microservices have various advantages compared to traditional monolith approach. Loose coupled microservices enables smaller teams to develop independently and using CI/CD at a daily basis. Microservices can be scaled independently using different database technologies optimised for particular use cases. The microservices are fault isolated so particular failures will not result in an overall outage.
But how to ensure data consistency for all distributed databases across the microservices? How to react at particular failures? And how to interact and communicate between services?
A research project for intelligent energy analysis will be presented. The solution realizes an Artificial Intelligence (AI) solution analyzing streaming data near real time to ensure energy savings in a production environment. The presentation will explain the steps necessary to establish a microservice environment for Artificial Intelligence and Machine Learning. Central logging guarantees operations monitoring across all microservices. Dashboards presents the results to technical staff monitoring the Machine Learning libraries as well as to the process owner of the domain, e.g. the operations manager or insurance agent. The solution is based on Docker as container virtualisation technology and Kubernetes for container orchestration. In the research project, the solution is realized on premise, but can be easily deployed in the cloud.
Data virtualization is being adopted by more and more organization for different use cases, such as 360 degrees customer views, logical data warehouse, democratizing data, and self-service BI. The effect is that knowledge about this agile data integration technology is available on how to use it effectively and efficiently. In this session lessons learned, tips and tricks, do's and don'ts, and guidelines are discussed. And what are the biggest pitfalls? In short, the expertise gathered from numerous projects is discussed.
Target Audience: Data architects, data warehouse designers, IT architects, analysts, solutions architects
Prerequisites: Some understanding of database technology
Level: Advanced
Extended Abstract:
Data virtualization is being adopted by more and more organization for different use cases, such as 360 degrees customer views, logical data warehouse, and self-service BI. The effect is that knowledge about this agile data integration technology is available on how to use it properly. In this practical session the lessons learned are discussed. Tips and tricks, do's and don'ts, and guidelines are discussed. In addition, answers are given to questions, such as: How does data virtualization work and what are the latest developments? What are the reasons to choose data virtualization? How to make the right choices in architecture and technology? How does data virtualization in your application landscape? Where and how do you start with the implementation? And what are the biggest pitfalls in implementation? In short, the expertise gathered from numerous projects is discussed.
High profitability and low lapse rates are interdependent targets for the insurance industry, the challenge in those aged industries is to leverage knowledge built up over years and to bridge the gap between IT architecture and business usage.
Together with MORESOPHY we applied demand-driven data analytics to connect content from various data sources and to perform data-driven risk assessment. Using an agile approach, we show how current smart data analytics can solve business problems and establish an effective flexible data strategy.
Target Audience: subject matter experts in Finance & Insurance, Data scientists, IT architects, engineers, IT Consultants
Prerequisites: base understanding of data management and analytical concepts
Level: Advanced
Vortrag Teilen
Mit der Zeit verändern sich Informationen auf komplexe Art und Weise. Zum Beispiel ändern sich die Zuordnung von Produkten zu Produktgruppen oder auch die Zuordnung von Preisspannen der Produkte nach Zielgruppe, Vertriebskanal, Rabattsystem und vieles mehr im Zeitverlauf.
Zielpublikum: Data Modeler, Data Engineer, BICC Team Member, BI-Manager
Voraussetzungen: Grundlegendes Verständnis von ‚time in data warehousing‘
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Mit der Zeit verändern sich Informationen auf komplexe Art und Weise. Zum Beispiel ändern sich die Zuordnung von Produkten zu Produktgruppen oder auch die Zuordnung von Preisspannen der Produkte nach Zielgruppe, Vertriebskanal, Rabattsystem und vieles mehr im Zeitverlauf.
Fachbereiche planen bereits heute zukünftige Preise und Preisspannen, strukturieren Produktgruppen um, wie zum Beispiel für eigene Produktgruppen mit Rabatten speziell für den 'Black Friday'. Diese Informationen können und werden lange bevor sie in der Realität gültig sind, in den Systemen gespeichert.
In der heutigen Session gibt Dirk Lerner einen Einblick in Use Cases für bitemporale Daten und warum diese für heutige Geschäftsanforderungen wichtig und grundlegend sind. Anschließend visualisiert er die Vorgehensweise der bitemporalen Historisierung von Daten anhand eines einfachen Beispiels. Zum Abschluss stellt Dirk Lerner die aktuell existierenden Technologien vor, die eine (bitemporale) Historisierung von Daten bereits implementiert haben.
USE CASE: Siemens AG
- Ausgangslage: Nicht ausreichend zuverlässiger Forecast für Liefer- und Bestandsoptimierung
- Vorgehen: Cross-Industry-Standard-Prozess für Data-Mining-Projekte:
(a) Erstellung von datengetriebenen Kurz- und Langfristprognosen mit Machine Learning
(b) Identifikation von Einflüssen externer Informationen
(c) Schneller Projekterfolg durch Predictive-Analytics-Plattform
- Ergebnis: Detailgenaue Planung auf Abruf
(a) Signifikante Verbesserung der Prognosen
(b) Optimierung von Liefertreue und Lagerkosten
Zielpublikum: Data Scientist, Controller, Planner, Finance, DWH Architects, Project Manager, CFO
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Die Verkaufsprognose bei Siemens wies eine geringe Zuverlässigkeit mit negativen Auswirkungen auf den Lagerbestand und die Liefertreue auf. In einem dreistündigen Workshop evaluierten avantum und Siemens Möglichkeiten der Verbesserung, woraufhin sich Siemens für die Implementierung von ML-Algorithmen zur Prognose der Absatzmengen entschied.
Gemeinsam mit den Logistikexperten der Anlage entwickelte avantum ein prädiktives Modell. Dieses wurde mit der Softwarelösung APOLLO erstellt, die auf IBM SPSS Modeler basiert. Als Ergebnis der Modellnutzung konnte Siemens die Zuverlässigkeit seiner Prognose um mehr als 50 % erhöhen und somit Working Capital reduzieren und Liefertreue deutlich steigern.
As the data landscape becomes more complex with many new data sources, and data spread across data centres, cloud storage and multiple types of data store, the challenge of governing and integrating data gets progressively harder. The question is what can we do about it? This session looks at data fabric and data catalogs and how you can use them to build trusted re-usable data assets across a distributed data landscape.
Target Audience: CDO, Data Engineer, CIO, Data Scientist, Data Architect, Enterprise Architect
Prerequisites: Understanding of data integration software and development using a CI/CD DevOps approach
Level: Advanced
Extended Abstract:
As the data landscape becomes more complex with many new data sources, and data spread across data centres, cloud storage and multiple types of data store, the challenge of governing and integrating data gets progressively harder. The question is what can we do about it? This session looks at data fabric and data catalogs and how you can use them to build trusted re-usable data assets across a distributed data landscape.
- The increasingly complex data landscape
- Challenges in governing and integrating data in a distributed multi-cloud environment
- What is data fabric, why it is important and what technologies are on the market?
- What is a data catalog and what products are on the market?
- Why organizations need these technologies?
- How do data catalogs and data fabric work together?
- A closer look at data fabric capabilities
- Defining common data entities in a catalog business glossary
- Using a catalog for automatic data discovery
- A DataOps CI/CD Approach to building reusable trusted data assets in using data fabric
Der Vortrag behandelt das Thema 'Entscheidungsfindung'
Nach einer Einleitung, in der die Art der Entscheidungsfindung hergeleitet und motiviert wird, wird der Einsatz von KI in einem praktischen und echten Beispiel diskutiert
Zielpublikum: 'KI-Interessierte', Data Scientist, Project Leader, Decision Makers
Voraussetzungen: Grundkenntnisse, Erfahrung in KI und Prozessautomatisierung empfohlen
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Der Vortrag behandelt das Thema der Entscheidungsfindung für (automatisierte) Prozesse im Schadenbereich der Provinzial Versicherung
Entscheidungen im Zusammenhang der Versicherung werden diskutiert und die Zukunft der Entscheidungsfindung (algorithmische Entscheidungsfindung durch KI) wird hergeleitet. Wie die 'Künstliche Intelligenz (KI)' konkret diese Entscheidung übernimmt wird dabei auf hoher Flughöhe erklärt.
Danach wird dieses Thema an dem praktischen Beispiel des Schadenanlageprozesses der Provinzial diskutiert.
Da formuliert man jeden Tag mit über 20 Jahren Programmiererfahrung die kompliziertes SQL-Statements, kennt vermeintlich jeden Kniff mit GROUP BY oder exotischen JOINs und dann ist da plötzlich so eine typische Kopfnuss: kinderleicht formuliert, die Aufgabenstellung sofort erfassbar... aber schon bei der Suche eines Ansatzes droht sich das eigene Gehirn zu verknoten...Wir schauen uns ein paar der extremsten Beispiele und deren Lösung an. Dabei liegt der Fokus nicht auf Theorie und Mathematik, sondern auf Kniffen und Ideen für die Praxis.
Zielpublikum: Datenbankentwickler, Entwickler, Analysten, Data Engineers, Data Scientist
Voraussetzungen: Basis SQL-Kenntnisse
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Wir lernen anhand unterhaltsamer Beispiele, welche Hilfsmittel die Hersteller im Laufe der Jahre in die Abfragesprachen und Tools integriert haben, um auch derartige Herausforderungen spielen zu meistern. Dabei sind die Fragestellungen so gewählt, dass jeder problemlos folgen kann und keine abstrakten wissenschaftlichen Abhandlungen notwendig werden. Wenn man an der richtigen Stelle über den Tellerrand hinausguckt, mal die bisherige Standardsichtweise gegen eine unkonventionellere Variante eintauscht und sein Handwerkszeug sicher beherrscht, liegt die Lösung quasi auf der Hand. Und erstaunlicherweise kann man den Lösungsansatz plötzlich auch im Alltag immer öfter erfolgreich einsetzen, sobald man ihn denn kennt.
How do you enable digital transformation and create value through analytics?
Building a global analytics function across a diverse application landscape incl. SAP and multiple data sources provides many challenges. See how ABB successfully managed this journey and now enjoys the benefits of operational analytics globally, a shift in mindsets and a more data driven way of working.
You will also discover the impact of key technologies used (Change-Data-Capture, Automation & AI) and see real examples of specific analytics deployed in the business.
Target Audience: Business analysts, decision makers, C-Level
Prerequisites: Basic Knowledge
Level: Basic
Extended Abstract:
How do you enable digital transformation and create value through analytics?
This session tells the story of building a global analytics function in an environment with a diverse set of applications including a complex SAP system landscape and many data sources. The speaker will talk about some of the challenges in the journey but also the success in deploying operational analytics globally, shifting mindsets and help transition to a more digital/data driven way of working.
The audience will also discover the impact of key technologies used (e.g.: Change-Data-Capture, Visualization, Automation and AI) and how these helped to create value and drive revenue increase for ABB, using real examples of specific analytics deployed in the business.
A successful data culture brings together people from across the business to collaborate, share and learn from each other about data, analytics and the business value data can hold. In this session I share my suggestions for bringing together your most talented data people so your organization can gain more value from their skills and the data assets you invested in.
Come with an open mind and leave with tips, tricks and ideas to get started straight away.
Target Audience: Data practitioners, analysts, CoE leaders, Management
Prerequisites: basic understanding of how businesses use data
Level: Basic
Based on an article we will present how die Mobiliar implemented a new reporting System with SAP Analytics. Coming from a pure Excel and pdf-based reporting the focus of our presentation lies on the key factors of the successful transformation towards a highly accepted BI-System.
Target Audience: CFO, Finance Experts, BI Project Leader and Controller
Prerequisites: none
Level: Basic
Die Implementierung einer effizienten KI wird durch die Verfügbarkeit fortschrittlicher Computer und schneller und großer Massenspeicher ermöglicht. Häufig stellen sich hierbei Fragen im Zusammenhang mit dem Datenschutzrecht. Die DSGVO ist hingegen nicht anwendbar, wenn anonymisierte Daten genutzt werden. Doch wann liegt eine 'rechtssichere' Anonymisierung vor? Ist sie im Zeitalter von Big Data überhaupt möglich? Der Beitrag stellt dies aus Sicht des Bereichs 'Selbstfahrender Fahrzeuge' dar und beleuchtet essenzielle rechtliche Fallstricke.
Zielpublikum: Der Vortrag verknüpft technische und rechtliche Erkenntnisse beim Einsatz von KI und ML und erklärt daher Grundlagen und Besonderheiten aus beiden Bereichen, sodass er sich für ein breites Publikum eignet.
Voraussetzungen: Es genügt Vorwissen entweder aus dem technischen oder rechtlichen Bereich. Der Vortrag ist gelungen, wenn Techniker danach ein Grundverständnis der relevanten Rechtsfragen haben und Techniker und Juristen sich danach im Bereich autonomer, selbst lernender
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Maschinelles Lernen (ML) und Deep Learning (DL) sind Werkzeuge, um KI-Anwendungen zu implementieren. Die Implementierung einer effizienten KI wird durch die Verfügbarkeit fortschrittlicher Computer und schneller und großer Massenspeicher ermöglicht. Häufig handelt es sich bei den genutzten Daten um personenbezogene Daten. Somit rücken Fragen im Zusammenhang mit dem Datenschutzrecht immer mehr ins Licht der Öffentlichkeit. Die Frage des 'Personenbezugs' von Daten wird im Datenschutzrecht seit jeher kritisch diskutiert. Die Rechtsprechung und auch Datenschutz-Aufsichtsbehörden gehen grundsätzlich von einem weiten Verständnis personenbezogener Daten aus. Einen neuen Höhepunkt erreicht diese Diskussion im Kontext von KI-Anwendungen. KI-Anwendungen müssen mit Datensätzen trainiert werden, die einen Personenbezug enthalten können, ohne dass dies auf Anhieb ersichtlich ist. In diesem Fall ist das strenge Regime der Datenschutzgrundverordnung (DSGVO) anwendbar. Dies ist jedoch nicht der Fall, wenn die Datensätze anonymisiert sind. Allerdings ist die Frage, ob Daten personenbezogen oder anonym sind, nicht nur eine technische, sondern vor dem Hintergrund der DSGVO auch eine rechtliche. Wann liegt eine 'rechtssichere' Anonymisierung vor? Ist sie im Zeitalter von KI und Big Data überhaupt noch möglich? Der Beitrag stellt dies aus Sicht von Anwendungen und Datensätzen im Bereich 'Selbstfahrender Fahrzeuge' dar und beleuchtet essenzielle rechtliche Fallstricke.
Von Führungskräften wird erwartet, den digitalen Wandel anzustoßen, zu steuern und die Mitarbeiter zu Veränderungen zu motivieren. Die Balance zwischen Technology-Literate People und People-Literate Technology bleibt herausfordernd. Digitales Mindset entwickeln Führungspersönlichkeiten mit einem 'digital Mindset' sind mehr gefragt denn je. Für den Erfolg von digitalem Wandel sind wenig überraschend nicht primär Technologien, sondern menschliche Fähigkeiten ausschlaggebend.
Zielpublikum: Leaders, Project Members
Voraussetzungen: None
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Der hier (in diesem Vortrag, Anm.) verfolgte Lösungsansatz rückt das 'digitale Mindset' als entscheidenden Faktor bei der Verankerung von Wandlungsfähigkeit im Unternehmen in den Fokus.
Aber was ist ein digitales Mindset? Für 'Mindset' gibt es keine gute Übersetzung. Haltung und Einstellung treffen am ehesten zu. Das Wort Set beinhaltet auch den Prozess des 'Einstellens'.
Anders: die innere Haltung lässt sich einstellen! Das Mindset ist wandlungsfähig. Ergänzt um das Wort 'digital' geht es um die Einstellung und Haltung, mit der Führungskräfte und Mitarbeitende mit den Anforderungen der Digitalisierung umgehen. Ein digitales Mindset ist an verschiedensten Merkmalen erkennbar, unter anderem:
Offenheit für moderne Technologien
- Neugier gegenüber Veränderungen
- Bereitschaft, Risiken einzugehen
- Bereitschaft zur Weiterbildung
- Mut zur Improvisation
- Denken und Handeln in Teams
- Offene Fehlerkultur
- Aufbrechen hierarchischer Strukturen
- Fokusausrichtung auf den Kunden
- ... und vieles mehr
Die angeführten Merkmale zeigen, dass eine Trennung zwischen privatem und beruflichem Kontext kaum möglich ist. Der private Mensch zeigt in seiner beruflichen wie privaten Persönlichkeit dieselben Merkmale auf.
Daher wirken Methoden der Persönlichkeitsentwicklung auch weit in das berufliche Wirken einer Person hinein.
Auf Dauer ist jener Mensch glücklicher, der sich gezielt mit der eigenen Wandlungs- und Entwicklungsfähigkeit auseinandersetzt. Ausgehend vom spiraldynamischen Ansatz1 wirken Veränderungen vom Individuum auf Teams, auf die Organisation und von dieser auf Strukturen der Wirtschaft und Gesellschaft.
Die Kenntnis innerer Kraftquellen und die Entwicklung von Mut und Gelassenheit gehören dabei zu den zentralen Führungselementen. Ziel ist die gesamthaft erfolgreiche Bewältigung großflächiger Transformationen.
Der Ansatz verfolgt die Prämisse 'von innen nach außen', vom Individuum auf die Gruppe und von der Gruppe in die Organisation.
Der Lebensalltag ist bei den Menschen begleitet von den verschiedensten Belastungen, von Dysbalance, von Konflikten in der Familie, am Arbeitsplatz, vielleicht einer Angst vor der Zukunft, vor der Endlichkeit und persönlicher Stagnation. Die Summe all dessen, was wir wahrnehmen, was wir hören, lesen, tun und denken, ergibt unser Lebensgefühl.
Es ist insbesondere nach der Lehre Viktor Emil Frankls und anderer, auch zeitgenössischer Leadership Autoren so, dass wir per se, als wahrnehmende Menschen, entscheidenden(!) Einfluss darauf haben, was wir wahrnehmen und wie wir es interpretieren. (Literaturempfehlung 'Sinnzentrierte Unternehmensführung': Um die anspruchsvollen Aufgaben der Zukunft zu lösen, brauchen Führungskräfte Fachwissen, Intelligenz (IQ), emotionale Kompetenz (EQ), vor allem aber Sinnorientierung (SQ).
Die Gestaltungsfreiheit unseres Lebens bewegt sich immer zwischen zwei Polen, Freiheit und Angst. Es gibt jedoch dazwischen eine Bandbreite an Möglichkeiten in großen und kleinen Entscheidungen. Das, was das Leben grundsätzlich 'anstrengend' machen kann, ist wenn man immer wieder abwägen muss, immer wieder überlegen muss, was jetzt 'das Richtige' zu tun wäre und in welchem Spielraum man sich gerade bewegt. Dem Dasein insgesamt liegt in allem eine Pendelbewegung zugrunde, spürbar in Tag und Nacht, in Ebbe und Flut und so weiter. Von allem Sein gibt es im Wesenskern auch dessen Gegenteil und wir als 'Entscheider' müssen Balance halten. Balance zu halten ist die Aufgabe unseres gesunden Menschenverstandes in Verbindung mit ausreichend Herz und Seele.
Zurück zu unserem Einfluss auf das, was wir wahrnehmen, wie wir es wahrnehmen und welchen Einfluss dies auf unseren Alltag hat.
Wir Menschen sind ausgestattet mit psychischen Kräften und Funktionen, sprich wir können normalerweise sehen, hören, riechen, schmecken und fühlen. Ohne den Filter des Menschenbildes und der individuellen Haltung bzw. ohne 'entscheidende' Absicht sind diese Funktionen zunächst reine Werkzeuge, deren Anwendbarkeit einer geistigen Dimension bedürfen, um 'Sinn' zu ergeben und eine Geschichte daraus entstehen zu lassen.
Das Wahrnehmen an sich stellt nur die physisch anatomische Grundlage dar. Ohne diese wären in der Folge keine Kräfte mobilisierbar. Ohne Ziel ebenso wenig bzw. nicht sinnvoll vorstellbar. Nach den funktionierenden Wahrnehmungseinrichtungen bedarf es der mobilisierenden Einrichtungen und um einen Senor für die Zielrichtung.
In der menschlichen Handlung kristallisiert sich die Selbstverwirklichung bzw. Lebensgestaltung, die im ethischen Sinn eine zentrale Rolle spielt. Habitus (Haltung, Weltbild) kommt u. a. durch Übung und Wiederholung zustande, (durch wiederholtes Handeln) und durch wiederholte Zustimmung zu einer gewissen 'inneren Ordnung', wenn man so möchte. Der Mensch braucht Ordnung und Orientierung und es mag ein wesentlicher Sicherheitsfaktor sein, die eigenen Handlungsweisen, den eigenen Habitus zu kennen und diesem vertrauen zu können. Auf Dauer würde es zu anstrengend und auch nicht sinnvoll, jede Handlung erneut zu überprüfen und ihre Stellung zwischen Möglichkeit und Wirklichkeit, zwischen Aktivität und Passivität oder auf ethische Tauglichkeit zu evaluieren.
So könnte man Habitus auch als Prinzip betrachten, welches das Hervorbringen adäquater Handlungen überhaupt ermöglicht. Nach Thomas von Aquin ist der Habitus der 'Ort, an dem die Möglichkeit zur Handlung ausgeführt wird'. So gesehen ist die Haltung etwas Statisches. Auch der Zeitgeist und das Menschenbild sind in diesem Sinne etwas Statisches. Dies zu 'wandeln' und zu einem 'höheren' Selbst zu kommen, ist das zentrale Anliegen von Digital Leadership und dessen Kern ein digitales Mindsets. Veränderungen finden statt und liegen in erster Linie in den äußeren Rahmenbedingungen, Wandlungsfähigkeit ist das, womit wir als Menschen antworten.
Um dem heutigen Titel gerecht zu werden und die 'Verlagerung von Computer-Literate People hin zu People-Literate Technology ' entscheidend mitzugestalten, gibt es unserer Ansicht nach – und auch aus der Erfahrung aus unseren Projekten nach – zwei Ansatzmöglichkeiten.
Beide nehmen den einzelnen Menschen, dessen Urteilsfähigkeit und dessen Bedürfnis, das 'Richtige' zu tun, ernst. Die zwei Ansatzpunkte betreffen nur die organisatorische Umsetzung. Einmal geschieht die Begleitung hin zu einer Wandlungsfähigkeit, einem digitalen Mindset, bei der Führungskraft und der zweite Ansatz – idealerweise zeitgleich – wird mit kleinen Gruppen in der Belegschaft durchgeführt. Wir sprechen hier nicht von Teambuilding oder Motivationstraining, nein, vielmehr geht es um die ganz zentralen Orientierungsparameter eines menschlichen Lebens, um die Werte. Aus denen entstehend Prinzipien und daraus wiederum Haltungen und daraus wiederum Kulturen – Organisationskulturen.
Wenn wir den Erfolg digitaler Transformationsprojekte ohne den wichtigen Faktor Mensch voranbringen wollen, müssen wir mit Reibungsverlusten und Widerstand rechnen.
In der praktischen Umsetzung kann das durch eine Vielzahl von Methoden gelingen. Wichtiger aber noch ist grundsätzlich ein Verständnis über Wandlungsfähigkeit und dass das Erreichen von Visionen und Zielen wichtig und möglich ist.
Am Beispiel der Führungskraft kann man die primären Führungseigenschaften zugrunde legen (eventuell agile Prinzipien) und bei einem festgestellten Entwicklungspotential etwa folgende Fragen stellen: Was wäre, wenn ich mutiger (strukturierter/integrierender/kommunikativer...) wäre. Dies setzt auf an den klassischen Führungseigenschaften. Diese Eigenschaften zu evaluieren ist grundsätzlich gut und richtig. Tiefer und effizienter ist aber noch ein imaginativer Ansatz.
Die großen Fragen in der wertorientierten Persönlichkeitsentwicklung 'praktisch' zu beantworten, bedarf eines humanistischen Kontextes, einer methodischen Vorgehensweise und einer großen Portion Zuversicht, dass das, was vorstellbar ist, auch möglich ist.
Die großen Fragen, die man sich als Mensch im Allgemeinen stellt, sind seit Jahrtausenden dieselben. Was ist wesentlich? Worauf kommt es an? Wer hat recht? Was bewegt mich? Was ist der Sinn und Zweck meines Lebens? Habe ich Ahnung davon, wie sich 'gelingen' anfühlt? Und so weiter.
Diese Fragen scheinen für einen Projektalltag – ja gar für einen datenbezogenen Projektalltag – unrelevant, sind jedoch der Kern einer stabilen und zielfähigen Persönlichkeit, die sich im Rahmen einer beruflichen Tätigkeit gut positionieren möchte, um das eigene Engagement und die berufliche Entwicklung nach den ureigensten Sinnmöglichkeiten entlang von Talenten und Werten aktiv zu gestalten. Welches Unternehmen sollte nicht an diesen Mitarbeiter-Attributen interessiert sein?
Google beispielsweise hat vor langer Zeit schon eingeführt, dass Mitarbeiter einen Teil der Arbeitszeit auf persönliche Projekte verwenden dürfen. Dies hat in weiterer Folge zur Entwicklung des inzwischen weltweit bekannten und in Lizenz weitergegebenen Mindfulness-Programmes namens 'Search Inside Yourself' geführt. Deren 'Erfinder', Jade Meng Tan, war einst Entwickler und hat wegen der großen Begeisterung seines Programmes inzwischen nichts anderes mehr zu tun als über ganz einfache Achtsamkeitsübungen weltweit Vorträge zu halten. Seine Position bei Google ist zwischenzeitlich 'Jolly Good Fellow'.
Jedes Unternehmen sollte einen Jolly Good Fellow haben und wenn Sie so wollen, bin ich die Verkörperung dieser Rolle bei TCI Consult. Unser Anliegen ist es, den Gedanken der Achtsamkeit – und zwar ganz genau im Sinne der Achtsamkeit auch für die eigenen Werte – zu heben und gerade wegen der Tendenz in Richtung Technikorientierung gegenzuhalten und eine Menschenorientierung in den Vordergrund zu stellen.
Viele große Unternehmen haben diesen Trend erkannt und entwickeln Programme, die mehr oder weniger auf ethischen Grundlagen beruhen, merklich mit leichter Tendenz zum Andenken breitflächigeren Einsatzes verschiedener Methoden.
Anmerkung: Dieser Vortrag wird als Dialog mit dem Publikum geführt, es werden praktische Übungen integriert. In sehr kurzen (1-2 minütigen) Videosequenzen werden erfolgreiche und verprobte Methoden gezeigt. Literaturempfehlungen und Quellen für Interessierte und Selbstentwickler werden bereitgestellt. Darunter befinden sich Klassiker wie Steven Covey, Peter Kramer, Deepak Chopra aber auch Visionäre wie Joe Diszpenza und populäre wie Jade Meng Tan, um eine zeitgemäße Übersetzung klassischer Führungsthemen zu anzubieten
Metadata is a long-time favourite at conferences. However, most attempts to implement real metadata solutions have stumbled. Recent data quality and integrity issues, particularly in data lakes, have brought the topic to the fore again, often under the guise of data catalogues. But the focus remains largely technological. Only by reframing metadata as context-setting information and positioning it in a model of information, knowledge, and meaning for the business can we successfully implement the topic formally known as metadata.
Target Audience: Enterprise-, Systems-, Solutions and Data Architects
Systems-, Strategy and Business Intelligence Managers
Data Warehouse and Data Lake Systems Designers and Developers
Data and Database Administrators
Tech-Savvy Business Analysts
Prerequisites: Basic knowledge of data management principles
Experience of designing data warehouses or lakes would be useful
Level: Basic
Extended Abstract:
Metadata has – quite correctly – been at the heart of data warehouse thinking for three decades. It's the sort of cross-functional and overarching topic that excites data architects and data management professionals. Why then can so few businesses claim success in implementing it? The real question is: implementing what?
This session answers that question by first refining our understanding of metadata, which has been made overly technical over the years and more recently been misappropriated by surveillance-driven organisations. With this new understanding, we can reposition metadata not as a standalone topic but as a vital and contiguous subset of the business information that is central to digital transformation. With this positioning, 'metadata implementation' will become a successful – but largely invisible – component of information delivery projects.
Die systematische Nutzung von Freitexten bietet ein großes Potenzial für die Gewinnung neuer Erkenntnisse oder die Automatisierung von Prozessen, das Unternehmen verstärkt nutzen wollen. Der Workshop soll Datenanalysten den Einstieg in das Text Mining erleichtern. Anhang konkreter Anwendungsbeispiele werden die nötigen Schritte und aktuelle Analyse- und maschinelle Lernverfahren erläutert. Für Datenvorbereitung und das Mining wird dabei Python genutzt, die Auswertung und Visualisierung der Ergebnisse erfolgt mit PowerBI.
Zielpublikum: Data Engineers, Data Analysts, Project Leaders
Voraussetzungen: Grundlegendes Verständnis von Data Mining/Machine Learning sowie elementare Programmierkenntnisse (nicht notwendigerweise in Python) werden vorausgesetzt. Zum Mitmachen sollten Python (Anaconda + zusätzlich spaCy) sowie PowerBI auf dem Laptop installiert sein.
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die analytische Erschließung von Texten ist für viele Unternehmen der erste Schritt in die Welt unstrukturierter Daten. Die Anwendungsgebiete sind vielfältig und reichen von der Auswertung von Kunden-Kommunikation für Marketing-Zwecke bis zum automatisierten Routing von Dokumenten oder der Priorisierung von Service-Requests.
Im Workshop wird anhand von Fallballspielen durchgespielt, wie ausgehend von einer Fragestellung ein Modell erstellt, evaluiert und visualisiert werden kann. Dabei wird gezeigt,
- wie Datenvorbereitung mit modernen NLP-Bibliotheken wie spaCy funktioniert
- wie sich schnell und elegant statistische Analysen auf den aufbereiteten Daten in Python und PowerBI umsetzen lassen
- wie aus Texten Feature-Vektoren erzeugt werden
- wie mit maschinellen Lernverfahren Texte klassifiziert und gruppiert werden können
- wie die Stärken und Schwächen der Modelle mit PowerBI transparent gemacht werden können
- wie Anwender selbst mit den Ergebnissen in PowerBI arbeiten können.
Am Ende werden Sie ein solides Grundverständnis davon haben, wie der Analyse-Prozess abläuft, welche Potenziale sich bieten und welche Fallstricke dabei lauern.
Ein sehr ernster humorvoller Blick auf die Modewellen der IT, ihre Auswirkung auf die Informationsprodukte im Unternehmen und ein methodischer Umgang mit dem Hype Cycle.
Der Mörder ist immer der Gartner, weil er bestimmt, wann ein Hype zu Ende ist und damit die Methode tötet. Typische Aussage fachfremder Menschen mit und ohne Budgetverantwortung: 'Warum machen wir das noch? Gartner sagt, dass ist nicht mehr aktuell.' Ungeachtet der Tatsache, dass die dahinterliegende Methode aus den 70ern stammt...
Zielpublikum: Data Engineer, Data Scientist, Project Manager, Decision Maker, Data Architect
Voraussetzungen: Basic Knowledge in Company IT, Data Management
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Der Fokus liegt aktuell auf Tools statt auf Methoden. Tools stellen sicher, dass nur auf eine bestimmte Art und Weise gearbeitet wird. Zumindest ist das die Hoffnung. Informationsprodukte bestehen aus 3 Komponenten: Informationen, Prozesse und Menschen. Es wird Zeit, den Blick nicht nur auf Daten und Werkzeuge zu richten, sondern die Methoden dahinter zusätzlich in den Fokus zu nehmen und damit die beteiligten Menschen, in die Lage zu versetzen, das richtige zu tun. Dann kann aus Fehlern gelernt werden und die richtige Adaption für die eigene aktuelle Situation gefunden und gehalten werden.
Wenn Daten das neue Öl sind, wie kommt das Benzin ins Blut? Agilität gelingt nur, wenn Daten bekannt, verstanden, verknüpft und verwendet werden. Die Finanzindustrie muss Spezialistenwissen der Domänen und Fachbereiche vergemeinschaften und den Partnern der Wertschöpfungskette benutzergerecht anbieten. Dies setzt eine gemeinsame Sprache voraus. Data Literacy ist mehr als Statistik und Datenpräsentation. Erst ein gemeinsames Grundvokabular und eine Grundgrammatik sowie ein Fokus auf Datendemokratisierung schaffen Mehrwert.
Zielpublikum: Data Governance, Human Resources, Führungskräfte, Business Analysten, Projektmanager mit Datenfokus
Voraussetzungen: Keine. Kenntnis der Grundproblematik von Datenkatalogen und Datenfriedhöfen hilfreich.
Schwierigkeitsgrad: Anfänger
Mit der „Berliner Erklärung“ haben sich die EU Staaten zu einer wertebasierten digitalen Verwaltung verpflichtet. Die Bundesregierung nimmt sich mit ihrer Datenstrategie dieser Aufgabe an und will den Staat zum Vorreiter für Digitale Souveränität und Open Data machen. Das 2. Open Data Gesetz und das Dashboard Deutschland haben dazu bereits den Weg geebnet und weiten das Daten- und Informationsangebot des Bundes aus. In weiteren Schritten soll die Nutzung der Daten über Datencockpits und Visualisierungstools vereinfacht und verbessert werden. Damit werden auch in verschiedener Hinsicht positive Auswirkungen auf Unternehmen einhergehen.
TDWI StackTalk is a format to discuss analytical solutions. A practitioner from an organization will present an analytics solution that is used in production (only real systems). The session contains 'Introduction of speaker/company/business', 'Business problem behind the solution', 'Interactive discussion of the solution with a high level architecture sketch', 'What products and patters are used and why', 'What were your learnings/what worked and what not', 'what is the future plan/vision'. In the live format the audience can also ask questions.
Target Audience: Data Architects, Decision Makers,
Prerequisites: None
Level: Basic
Extended Abstract:
Take part at the first TDWI StackTalk Live Session. The TDWI StackTalk is a regular video cast where practitioner present and discuss their real world analytics landscapes. Learn more about what works and what not from solutions that are running in production.
Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu. Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Zielpublikum: Analytics Manager, Data Scientist, BI & Big Data Experten, Automotive Interessierte, Verantwortliche für Digitalisierung, etc.
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die Beantwortung geschäftsrelevanter Fragestellungen auf Basis von Daten und intelligenten Analysen wird im digitalen Zeitalter zunehmend zum 'Game Changer'. Dies trifft insbesondere auf komplexe mehrstufige Vertriebsorganisationen wie in der Automobilindustrie zu.
Hierzu ist es erforderlich einerseits datenbasierte Entscheidungssysteme zur erfolgreichen Vertriebs- und Ergebnissteuerung aufzubauen und anderseits eine Performance-Kultur über die gesamte Organisation bis zum Handel zu etablieren.
Eingebettet in das konsequent implementierte Performance Management System stellt BMW Deutschland mit C1 Advanced Analytics in der Breite und Tiefe über alle Vertriebsstufen passgenaue Lösungen bereit, um den Entscheidern bis hin zum Point of Sales einerseits maximale Transparenz über die aktuelle und künftig zu erwartende Geschäftsentwicklung zu geben. Andererseits werden auf Basis von Daten systematisch Entscheidungen getroffen und Maßnahmen zur Performance-Steigerung implementiert und stringent nachverfolgt. Die Beherrschbarkeit und Kosteneffizienz im Betrieb werden über automatisierte Abläufe wie z.B. die Konsolidierung und Harmonisierung von Händler-Reports professionalisiert. Dies führt hat über neue Berufsbilder in Kombination mit einer zielgerichteten Befähigung der Mitarbeiter in der Organisation gesamthaft zu einem 'New Way of Working' sowie zu gesteigerten Nutzung von Marktpotenzialen geführt. Gleichermaßen konnten über die Konsolidierung von Data Assets sowie eine strikte Data Governance erhebliche Effizienzsteigerungen realisiert werden. Letzteres hat sich insbesondere auch in der Corona-Krise bewährt.
Die technische Lösung basiert auf einer Cloud Data Plattform, in der alle relevanten Daten (strukturiert und unstrukturiert) so zusammengeführt werden, dass mit Hilfe von modernen Frontendlösungen alle relevanten Informationen zeitgerecht bereitgestellt. Teilweise werden bereits KI-Funktionalitäten genutzt, um beispielsweise die Allokation von Vertriebsförderungsmaßnahmen zu optimieren. Dafür werden sehr große Datenmengen mit komplexen Machine-Learning-Methoden verarbeitet, die Ergebnisse jedoch für die Anwender in benutzerfreundlicher Form im Frontend aufbereitet.
Seit 2018 wurde die Transformation zu einer datenbasierten Vertriebs- und Ergebnissteuerung im Markt systematisch vorangetrieben und seitdem mit über 80 umgesetzten Use Cases stetig ausgebaut. Die Geschäftsbereiche Finanzen/ Strategie (Weiterentwicklung zur Rolle als 'Performance Manager'), Vertrieb, Customer Support sowie und Marketing werden datenbasiert über das Performance Management System eng miteinander verzahnt und in die Lage versetzt, noch zielgerichteter zu steuern, um identifizierte Marktopportunitäten für die Vertriebsregion BMW Deutschland konsequent zu heben.
Im Vortrag werden der erfolgreiche Weg hin zu einem datenbasierten Arbeiten skizziert sowie die technische Architektur und beispielhaft ein Advanced Analytics Use Case aufgezeigt.
Mit der Agenda 2030 hat sich die Weltgemeinschaft die Sustainable Development Goals für eine nachhaltige sozial, wirtschaftlich und ökologisch Entwicklung gesetzt. Die Ziele dienen den Kommunen als Stoßrichtung für langfristige Politikplanung und dem kommunalen Monitoring.
Das Dilemma an den SDGs ist, dass sie mehrdimensional, universell gültig und heterogen in den Steuerungsgrößen sind.
Die Zusammenführung der Datengrundlage und Herstellung einer Vergleichbarkeit von Kennzahlen in einem gemeinsamen Zielsystem ist eine zentrale Herausforderung.
Zielpublikum: Entscheider, Leiter Controlling, Leiter Data & Analytics
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger
Der fachliche Wettbewerbs- und Kostendrucks sowie steigende Anforderungen erhöhen den Bedarf an Industrie- und Standardlösungen. Allerdings werden Standardlösungen den Anforderungen, z.B. BCBS 239, oftmals nicht gerecht. Es entsteht eine Diskrepanz, dem nur mit einer modernen, dispositiven Infrastruktur begegnet werden kann. Neue Ansätze und Methoden in der Umsetzung sind daher gefragt: Eine moderne Referenzarchitektur, die bei der Lösung zukünftiger Herausforderungen unterstützt und Grundlage für eine moderne Analyseplattform liefert.
Zielpublikum: Entscheider, Data Engineer, Architekten, Controlling, Projektleiter
Voraussetzungen: Grundkenntnisse Data & Analytics
Schwierigkeitsgrad: Anfänger
Weitere Informationen folgen in Kürze.
Diese Session ordnet die Themenfelder und stellt den organisatorischen Rahmen dar, in den die Nutzung von Analytics in Unternehmen eingebettet sein sollte. Dazu werden zunächst statistische Grundlagen aufgefrischt. Darauf aufbauend werden Algorithmen und deren potenzielle Eignung für Anwendungen vorgestellt und diese anhand kleiner Beispiele durchgerechnet.
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Machine Learning ist auf dem Vormarsch und hochgradig von Daten abhängig. Das Thema ist omnipräsent und wird aber meist entweder sehr abstrakt oder aber sehr algorithmisch, daten-zentriert, auch code-nah beleuchtet. Der Blick auf die Gesamtarchitektur von Systemen, die ML enthalten, fehlt dabei oft. Unser Vortrag unterstützt Softwarearchitekten und Data Scientists dabei, den Überblick zu behalten, die wesentlichen Fragen zu stellen, besser zusammenzuarbeiten und somit bessere Architekturen für Systeme basierend auf Machine Learning zu designen.
Zielpublikum: Software Architect, Project Leader, Data Scientist
Voraussetzungen: Grundlegendes Verständnis zu Softwarearchitektur
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
- KI ist ein absolut populäres Thema. Durch die einfache Verfügbarkeit von on-demand Rechenkapazität in der Cloud und die große Verfügbarkeit von Daten kann mittlerweile KI/Machine Learning einfach eingesetzt werden. Das wird zunehmend für unterschiedliche Domänen und Anwendungsfälle relevant
- Aktuelle Betrachtungen fokussieren häufig auf detaillierte technische Aspekte mit dem Fokus wie bestimmte Algorithmen für unterschiedliche Anwendungsfälle verwendet werden können
- Technische Publikationen sind oft sehr algorithmisch und codenah und für Architekten nicht ausreichend
- Als Architekten müssen wir uns daher künftig zunehmend damit auseinandersetzen, wie wir KI als Werkzeug und Funktionalität in 'normalen' Systemen einsetzen
- Dadurch ergeben sich neue Herausforderungen und Fragestellungen. Insbesondere der Betrachtung von Daten und der strukturierten Unterscheidung von
- Wie integriert sich die KI als Baustein im Gesamtsystem?
- Was wird wann woraus gelernt und welche Daten werden dazu einbezogen
- Zu welchen Zeitpunkten wird ein Modell gelernt und wann wird nachgelernt?
- Wie werden Modelle verteilt und deployed?
Working as a Data Scientist in a Start-Up can be challenging and exciting at the same time. The amount of available data, lack of data quality and fast-changing business needs are some of a Data-Scientist's biggest enemies. To overcome such obstacles you need to be creative to get as many insights as possible from the available data in order to establish scalable processes and take the right decisions at the right time.
How we did that? We will elaborate in this talk.
Target Audience: Data Scientists, Project Leader, Project Manager, Analysts, Data Engineers, everyone who's juggling with Data
Prerequisites: Basic knowledge
Level: Basic
Extended Abstract:
As usual for a (grown up) Start-Up, there are many construction sites that need to be handled or optimized. And although Cluno is still very young, it already has a Data Team consisting of 9 employees, 3 of whom work in the Data Science team – because Cluno wants one thing above all others: to support decision making processes with data driven intelligence.
The Data-Science team is currently working on two major building blocks that are essential for Cluno: The purchase of the right vehicles in the right quantity and the matching of potential customers with the most convenient available vehicles. As for every data intensive project, using state of the art machine learning techniques is very tempting. Unfortunately, in theory this is often easier said than done. Even though we have the necessary data infrastructure and machine learning expertise, the amount of data collected over the two years of the existence of Cluno and its quality prevents us from leveraging the fanciest techniques. Under these conditions, the Data Science team had to get extra creative in order to distill as much intelligence as possible from the existing data to support our different departments – without losing ourselves in the depths of the most complex machine learning algorithms.
In this talk we want to give you some insights on how ideas for the optimization of existing processes were turned data-driven, what (data-) challenges we faced in a Start-Up environment and how both projects are not only leveraging simplicity and providing our business with the much needed insights, but also building the foundations of the next generation of machine learning based data products.
ETL ist Batch: Effizienz, Datenkonsistenz, Nachvollziehbarkeit, Einfachheit, etablierte Methoden und ausgereifte Werkzeuge machen den Bau eines DWH zu einem Standard-Job.
Dabei ist Streamprocessing technisch kein Problem. Nur: Wie baut man komplexe fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz? Wohin mit der Datenhistorie? Wie geht das ressourceneffizient?
Der Vortrag zeigt an einem konkreten Projekt Verfahren, Werkzeuge, Vor- und Nachteile und die konkrete Umsetzung eines rein Event-getriebenen Data Warehouses.
Zielpublikum: Data Engineers, BI Project Manager
Voraussetzungen: Gutes DWH und ETL Knowhow
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
ETL ist heute (noch?) immer eine reine Batch-Veranstaltung – und das aus gutem Grund: Effizienz und geringer Overhead, hohe Datenkonsistenz, Nachvollziehbarkeit, niedrigere Komplexität, etablierte Methoden und ein Fundus ausgereifter Werkzeuge machen den Auf- und Weiterbau eines Data Warehouses oder eines Data Lakes (fast schon) zu einem Standard-Job. Selbst die meisten 'Near-Real-Time' Prozesse (stündlich, viertelstündlich oder 5-minütlich) werden heute durch – kürzere, kleinere und häufiger ausgeführte – Batch-Jobs erledigt, nicht selten exotische 'Außenseiter' in der Riege der täglichen DWH Workflows.
Dabei ist doch zumindest eine zeitnahe Datenextraktion im Stream technisch kein großes Problem: Ob 'Log-based CDC', Json-Streaming via http oder das Abgreifen von Events aus Kafka ist weit verbreitet. Und auch das permanente Runterschreiben dieser Datenströme in Datenbanken ist kein Hexenwerk.
Wie aber implementiert man darauf komplexe, technische und fachliche Transformationen 'im Stream'? Wie sichert man Datenkonsistenz, wenn die Ankunft der Daten nahezu unvorhersagbar ist? Wie speichert man diese Datenströme – mit Datenhistorie für spätere Auswertungen – und wie kann man solche Prozesse noch ressourceneffizient umsetzen?
In diesem Vortrag zeigen wir anhand konkreter Projekte, welche Verfahren und Werkzeuge sich eignen, wo deren Vor- und Nachteile gegenüber klassischen Batch-Prozessen liegen und wie eine konkrete Umsetzung eines rein Event-getriebenen Data Warehouses aussehen kann.
Das Competence Center für Künstliche Intelligenz für die Sparkassen-Finanzgruppe ('KIXpertS') wurde Anfang 2019 gegründet und befindet sich im dritten und letzten Jahr seines Bestehens. Andreas Totok wird über die Erfahrungen berichten, die in Aufbau und Betrieb des als Programm organisierten Competence Centers gemacht wurden. Weiterhin wird er ausgewählte Use Cases vorstellen, die anhand ihres Potentials für die fachliche Evaluierung und folgende technische Implementierung ausgewählt wurden.
Zielpublikum: Fachanwender, IT-Architekten mit
Voraussetzungen: Grundlegendes Verständnis der Methoden Künstlicher Intelligenz wie beispielsweise das maschinelle Lernen.
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Das Competence Center für Künstliche Intelligenz der FI-Gruppe unterstützt die Sparkassen-Finanzgruppe dabei, die Chancen der Künstliche Intelligenz frühzeitig zu nutzen. Die Initiative wurde 2019 von der Finanz Informatik ins Leben gerufen und bietet eine Plattform für den Wissensaustausch zum Thema. Übergreifende Ziele sind, es mit Hilfe von KI für den Kunden einfach zu machen sowie ungeliebte Prozesse innerhalb der S-Finanzgruppe besser zu unterstützen bzw. überflüssig zu machen.
Das KIXpertS-Team besteht aus einem übergreifenden Team von Experten für Künstliche Intelligenz und Softwareentwicklung mit bankfachlichem Knowhow sowie Kenntnissen und Erfahrungen der Integration in bankfachliche Prozesse.
Weitere Informationen folgen in Kürze.
Diese Session erarbeitet Auswahlkriterien von Algorithmen und überträgt die Umsetzung in das Werkzeug RapidMiner. Natürlich ist dies nur ein Werkzeug unter vielen, jedoch soll es den Teilnehmern einen Eindruck vermitteln, wie in Projekten mit großen Datenbeständen und entsprechenden Analyseanforderungen werkzeugunterstützt gearbeitet wird.
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Mit Data Lakehouse und Data Mesh verbreiten sich im Moment neue Paradigmen und Architekturmuster für analytische Fragestellungen in Unternehmen unterschiedlichster Branchen. Die beiden Ansätze verfolgen hierbei sehr konträre Zielsetzungen und verheißen gleichzeitig die nächste Evolutionsstufe analytischer Architekturen zu sein.
Im Rahmen des Vortrags werden die beiden Architekturmuster und deren Intensionen gegenübergestellt und anhand praktischer Projekterfahrung eingeordnet.
Zielpublikum: Enterprise Architects, Data Architects, DACC / BICC Manager, Data Engineers, Data Scientists, Data Consumers
Voraussetzungen: Grundverständnis über heutige Architekturen im Data & Analytics-Umfeld und den daraus resultieren Herausforderungen für die involvierten Stakeholder.
Schwierigkeitsgrad: Fortgeschritten
Wohin geht der Trend? Wie entwickelt sich der Markt? Welche neuen Möglichkeiten bieten sich? Produktmanager müssen von Natur aus zukunftsorientiert arbeiten und mitunter in die Glaskugel blicken. Je höher die Anzahl und je diversifizierter die Waren, umso komplexer die Portfolioplanung. Das Produktmanagement bei ratioform steht täglich vor genau dieser Herausforderung – und hat mit Hilfe innovativer Technik eine zukunftsorientierte Lösung gefunden!
Zielpublikum: product managers, data management experts, ML specialists, decision makers
Voraussetzungen: experience
Schwierigkeitsgrad: Fortgeschritten
Ein 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung. Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.
Zielpublikum: Project Leader, Data Stuarts, Decision Makers, Data Architects, BI Specialists
Voraussetzungen: Basic Knowledge
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Ein datenbasierter 360° Blick auf die Geschäftskunden ist ein wichtiger Faktor in der unternehmerischen Entscheidungsfindung. Auf Konzernebene sind Kundendaten jedoch häufig auf verschiedene ERP- und CRM Systeme sowie weitere Applikationen verteilt, mit variierender Datenqualität, Aussagekraft und Möglichkeiten der Anbindung.
Bei Bilfinger SE, einem internationalen Konzern mit Einheiten auf der ganzen Welt, suchte man daher nach einer Lösung, die alle Kundenstammdaten zusammenbringt und sie anschließend auf Konzernebene mit relevanten Finanzkennzahlen auswertbar macht.
Die Erstellung von Golden Records mit Hilfe von Algorithmen, das Analysieren von Dubletten, die Anreicherung von Kundendaten mit digitalen Wirtschaftsinformationen und ein Workflow-Tool, welches den Datenprozess automatisiert steuert, sind dabei die wichtigsten Bausteine für ein erfolgreiches Master Data Management.
Die Absatzprognose ist in der klassischen Industrie das A&O der Ressourcen- und Wirtschaftsplanung. Ereignisse wie die Pandemie machen jedoch eine Planung mit klassischen Verfahren fast unmöglich. KI basierte Modelle können hier helfen. Können diese Methoden auch auf Banken bzw. die Finanzindustrie übertragen werden? In dem Vortrag werden anhand eines konkreten Beispiels die Möglichkeiten und Herausforderungen von KI basierter Prognose von Verkaufszahlen im Banking vorgestellt.
Zielpublikum: Vertriebsmanager, Controlling, Business Development
Voraussetzungen: Kenntnisse über Planungs- und Prognoseprozess in Banken / Finanzindustrie
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Für einen validen Prognoseprozess im Banking sind ausreichend historische und qualitativ hochwertige Daten notwendig. Welche Daten für den Prognoseprozess in der Praxis vorliegen und wie diese aufbereitet und veredelt werden, zeigen wir im ersten Teil des Vortrages. Im zweiten Teil gehen wir auf die KI-basierten Prognosemodelle ein und stellen anhand eines Praxisfalls die Ergebnisse und die daraus resultierenden Möglichkeiten und Herausforderungen vor. Hierbei wird auf die Komplexität der Prognose durch die Kombination von Produkten, Kanälen und Mitarbeitern besonders eingegangen.
Diese Session beschäftigt sich mit dem Werkzeugunterstützungsgedanken mittels der Sprache R. Die in diesem Umfeld prominent genannte Sprache ist für statistische Berechnungen und Grafiken geschaffen worden. In der Session werden ausgewählte kleine Beispiele im Werkzeug umgesetzt.
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Kafka and Kafka Streams have emerged as the de facto standard for scalable, high volume and low-latency real time data processing in the industry. Complex event processing is concerned with the detection of patterns in raw events and their transformation to higher level events that are more business relevant. This talk shows how to implement scalable, fault tolerant and declarative complex event processing based on Kafka Streams.
Target Audience:Data Engineer, Data Scientist, Data Architect
Prerequisites: Basic understanding of real time data processing and Apache Kafka.
Level: Advanced
Extended Abstract:
Kafka and Kafka Streams have emerged as the de facto open source standard for real time, low latency and high throughput data integration in a large variety of industries. Besides providing traditional operations such as grouping, aggregations and table-table joins, Kafka Streams treats streams of data as first class citizens and offers some unique features geared at real time data wrangling such as aggregation of data across different types of time windows, real time data enrichment, and joins between streams of data. While both types of operations have emerged from the ambit of relational databases, the complex event processing community has focused their attention on declarative, pattern based recognition of business relevant events from lower level, raw events. Examples for operations supported by complex event processing are sequences, negation, conjunction, disjunction and repetition. This talk shows how sequences, negation and regular expressions on event streams can be implemented in a scalable and fault tolerant manner based upon the Kafka Streams DSL and the Kafka Streams Processor API. The provided examples are relevant to use cases such as detection of shoplifting, security systems, operations of production lines, and online shopping.
I will show the journey that Tires took from its first attempts to extend their BI services for analytics to operate a mission critical industrialization environment which runs several AI projects. Beneath the problems and obstacles that were taken I will also explain the decisions that were taken and show the industrialization environment which was created. I also will explain why it was necessary to have such an environment instead of making use of classical BI tools.
Target Audience: Project leader, decision makers, CIO, Software engineers
Prerequisites: None
Level: Basic
Extended Abstract:
When Continental Tires started to establish Data Science as a function it decided to grow this out of BI but with an external employee. The journey was a long one but due to the given experience Continental was able to leave out some of the painful experiences that were made in other companies. So they decided to build up an infrastructure for industrialization of Use Cases from the first minute. The example of Tires is a good one to understand the roadmap from BI to Data Science industrialization. While in the beginning there was the hope that a simple extension of BI and BI tools would deliver an answer today the organization is a complete different one. Also Tires created an own landscape for industrialization of AI. Why this is done so and why this might be useful will be shown in the talk.
In the past, data was often stored in a monolithic data warehouse. Recently, with the advent of big data, there has been a shift to work directly with files. The challenge therefore arises in data management and storing metadata information. In this presentation, I will show how SAP (ERP or BW) data can be extracted using SAP Data Intelligence (ODP framework) and stored along with their metadata information. These data are stored in a Common Data Model (CDM) format and can be easily integrated and consumed with various products.
Target Audience: Professionals who would like to integrate SAP data into a Data Platform (e.g. Datalake) and include metadata information.
Prerequisites: Basic understanding of the SAP integration framework ODP, and cloud infrastructure (e.g. Azure Datalake Storage)
Level: Advanced
Durch die Digitalisierung und die zunehmende Regulierung sind Unternehmen einem steigenden Veränderungsdruck ausgesetzt. Um darauf reagieren zu können, ist eine hohe Transparenz über die operativen und dispositiven Datenbestände notwendig. Zusätzlich bringen die zunehmende Automatisierung der Datenverarbeitung und der Einsatz Künstlicher Intelligenz für die Entscheidungsfindung eine gesteigerte Anforderung an die Datenqualität mit sich. Synabi und der Raiffeisenverband Salzburg haben sich dieser Herausforderung erfolgreich gestellt – aber wie?
Zielpublikum: CIO, CDO, BI/DWH Entscheider, BI/DWH (Competence Center) Manager, BI/DWH Programm- und Projektleiter, BI/DWH Architekten, interessierte IT- und Fachbereichsverantwortliche und Anwender
Voraussetzungen: Voraussetzung sind grundlegende Kenntnisse in den Bereichen Daten- und Informationsmanagement. Architektur, Modellierung, Betrieb, Organisation und Prozesse ist vorteilhaft
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Beim Raiffeisenverband Salzburg wurde 2016 eine Data Governance Initiative gestartet, um die bestehenden und zukünftigen Herausforderungen, die unter anderem durch die zunehmenden Regulierungen, wie zum Beispiel BCBS239, DSGVO etc., entstehen, zu meistern. Dabei wurden neben den Daten auch die Prozesse und die Unternehmensarchitektur mit eingebunden. 2019 wurde D-QUANTUM als Softwarelösung ausgewählt und im Unternehmen eingeführt, um die hierfür erforderlichen technischen und fachlichen Informationen zusammenzuführen und allen Mitarbeitern des Unternehmens zur Verfügung zu stellen
Diese Session fokussiert die Programmiersprache Python anhand vorgefertigter Code-Beispiele, um den Teilnehmern eine Grundlage zu schaffen, die Einsatzpotenziale und Aufwände der Sprache im Bereich Advanced Analytics besser abschätzen zu können.
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Das Modern Data Warehouse (MDWH) gilt als DAS Zukunftskonzept für die digitale Transformation. Denn: Dank Cloud-Technologien kann das MDWH auf ganz unterschiedliche Anforderungen vom Reporting bis zur KI angepasst werden. Aber wie sieht eine Basisarchitektur aus? Welche Anpassungen sind bei verschiedenen Use Cases notwendig? Jens Kröhnert liefert die Antworten. Vor den Augen des Publikums baut er ein MDWH in der Cloud auf und spielt konkrete Einsatzszenarien durch. Die Teilnehmer werden als Lieferant für Streaming-Daten unmittelbar involviert.
Zielpublikum: Alle Personengruppen im Unternehmen, die mit Daten arbeiten
Voraussetzungen: Basiskenntnisse
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
GLIEDERUNG:
Einführung in das MDWH
- BI und Big Data auf einer Plattform
- Von Open Source zu PaaS und SaaS
- Gründe für Cloud-Migration/Anwendungsszenarien
- Basisarchitektur 'Modern Data Warehouse'
Kunden-Case 'Aluminium-Fertigung'
- Ausgangssituation: Klassisches DWH OnPrem
- Ziele: Echtzeit & Machine Learning in der Cloud
Step by Step: Aufbau eines MDWH
- Nutzung von PaaS- und SaaS-Diensten
- Entwicklung in kurzen Sprint-Lösungen
- Umsetzung von Streaming
Quantifying the impact of customer experience (CX) improvements on the financials is crucial for prioritizing and justifying investments. In telecommunication as well as other subscription-based industries, churn is one of or the most important financial aspects to take into account. The presented approach shows how the churn impact of CX improvements – measured via Net Promoter Score (NPS) – can be estimated based on structural causal models. It makes use of algorithms for causal discovery and counterfactual simulation.
Target Audience: Data Scientist, Decision Maker
Prerequisites: basic understanding of statistical modeling
Level: Advanced
Like many companies, the 3 banks face the challenge of implementing data governance. With an end-to-end approach for metadata – from the business definition to the DWH implementation – a basis was created for this. The use cases 'IT requirements', 'data quality' and 'data definitions' were the focus of the resource-saving project. The target groups for the metadata are primarily the LoB, especially risk management, but also IT.
Target Audience: Data Governance Manager, Risk Manager, Data Quality Manager, Data Warehouse Architects, Data Modeler
Prerequisites: Basic knowledge
Level: Basic
Wie jede Bank will auch die Volksbank Wien in allen Geschäfts- und Steuerungsprozessen maximale Informations-Integrität und Datenqualität auf allen Ebenen erreichen. Auf Basis fachlicher Metadaten werden die Datenqualitätsanforderungen definiert, der Life-Cycle und Anforderungsprozess umgesetzt sowie die Verantwortlichkeiten vergeben. Die Trennung in 'Datenqualität allgemein' und in 'Qualität der Datenproduktion' half bei der Strukturierung der Maßnahmen, die auf Governance-Aspekte, RUN the Bank und CHANGE the Bank abzielen.
Zielpublikum: Data Governance Manager, Datenqualitätsmanager, Riskmanager, Metadatenmanager
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Anfänger
Diese Session vermittelt die Unterschiede zwischen Data Mining und Text Mining, so dass auch hier die Teilnehmer in der Lage sind, diese zu erkennen und in eigenen Projekten zu berücksichtigen. Während der Session zeigen wir ein kleines Code-Beispiel, so dass der Eindruck für den Aufwand vermittelt wird.
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence.
Schwierigkeitsgrad: Anfänger
Vortrag Teilen
Transforming an organization to become more data driven usually presents a set of technological challenges. In this session you will learn how to integrate existing applications data in real time to achieve a useful critical mass of explorable data.
Target Audience: CTOs, CIOs, CDOs, data engineers, data modelers, data analysts, data scientists
Prerequisites: General understanding of data in the context of the enterprise
Level: Basic
Extended Abstract:
'Data is the new oil' – these days many organizations are in the midst of a digital transformation. In order to enable data driven processes, it is imperative to leverage the treasure trove of data hidden away in already existing applications. Extracting data from those applications (the E in ETL) is commonly the biggest pain point of data engineering. Many systems were not built to be extracted, so therefore data engineering needs to carefully balance performance versus load. At the same time customers demand more: nightly batch processing is not good enough anymore, the need for real time information is growing.
How to align all of this? Enter Change Data Capture (CDC). Based on a real live use case, you will learn how to integrate data from an existing mission critical SAP application into a modern cloud-based analytics warehouse. We will tell the story of our journey from the initial use cases, constraints that we faced, discoveries along the way to the final design and our appetite for more.
Künstliche Intelligenz analysiert natürlichsprachliche Texte, um präzise, robusteSyntaxbäume abzuleiten. Die syntaktische Struktur einer Aussage ist aber oft weniger wesentlich als ihre semantische Struktur. Sprich:Was besagt sie? Welcher Sinn steckt in ihr? Ein Fokus auf die Bedeutung führt dazu, dass eine kleine Anzahl an Referenzsätzen ausreicht, um eine große Anzahl semantisch entsprechender aber unterschiedlich strukturierter Ausdrücke entdecken zu können. Die Technik lässt sich in verschiedenen Bereichen anwenden: Conversational Interfaces, themenbasiertes Matching und die Dokumentenklassifizierung.
Zielpublikum: spezialisierte Analysten, Entwickler, Architekten
Voraussetzungen: Ein grundlegendes Verständnis der gesprochenen Sprache
Schwierigkeitsgrad: Anfänger
Die zunehmende Urbanisierung zwingt Städte zum Handeln. Technologie soll helfen die Infrastruktur einer Stadt effizienter und sicher nutzbar zu machen. Daten aus Sensoren in Kombination mit modernen Analysen sollen Städte smart machen. Smarte Städte wollen:
o Besseren Umweltschutz
o Höhere Sicherheit
o Effizienterer Infrastrukturen
Im Vortrag wird eine Softwarearchitektur vorgestellt, die ihre Bewährungsprobe in der Praxis bestanden hat. Die Kombination dieser Tools gewährleistet eine maximal flexible und hoch skalierbare IoT Plattform.
Zielpublikum: Decision Makers, Data Engineers, Project Leaders
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Anfänger
The past year or two has seen major changes in vendor support for the extended Hadoop ecosystem, with withdrawals, collapses, and mergers, as well as de-emphasis of Hadoop in marketing. Some analysts have even declared Hadoop dead. The reality is more subtle, as this session shows, through an exploration of Hadoop's strengths and weaknesses, history, current status and prospects. Discussion topics include plans for initiating new Hadoop projects and what to do if you have already invested, successfully or otherwise, in data lakes.
Target Audience:
Enterprise-, systems-, solutions- and data architects
Systems-, strategy- and business intelligence managers
Data warehouse and data lake systems designers and developers
Data and database administrators
Prerequisites:
Basic knowledge of data management principles
Experience of designing data warehouses or lakes would be useful
Level: Basic
Extended Abstract:
Hadoop and its extended menagerie of related projects have been responsible for a decade of reinvention in the data management world. On the positive side, projects that would have been impossible with traditional technology have become not only possible but commonplace in today's environment. Hadoop has been at the heart of the explosion of digital business.
However, Hadoop has also been beset by a long list of complaints and problems, particularly relating to data management and systems management. Some of Hadoop's early strengths have been eroded as relational database vendors have upped their game. Furthermore, the rapid growth of Cloud solutions to many massive data delivery and processing projects has impacted Hadoop's commercial viability.
All these factors have led to a questioning of the future of the extended Hadoop ecosystem. This session answers these questions, not just from a technological viewpoint, but in the broader context of existing investments in skills and infrastructure, the direction of digital transformation, and the changing socio-political environment in which business operates.
Die Group IT verantwortet innerhalb der Porsche Holding Salzburg das Neuwagen-Reporting für interne Fachbereiche. Sie befindet sich auf dem Weg zu einer modernen, cloudbasierten, analytischen Plattform. Dabei wird auf die Zusammenarbeit mit den Fachanwendern gesetzt, um früh Ergebnisse zeigen und flexibel auf Änderungen reagieren zu können. Der Vortrag behandelt die bisherigen Erfahrungen und geht auf die eingesetzten Techniken und Methodiken rund um Data Vault, DWH Automatisierung, Scrum und der Nutzung moderner Cloud-Komponenten ein.
Zielpublikum: Projektleiter, Teamleiter, Entwickler, Product Owner
Voraussetzungen: Grundlagenwissen DWH und Agile BI
Schwierigkeitsgrad: Basic
Extended Abstract:
Die Porsche Holding Salzburg (PHS) ist das größte Automobilhandelsunternehmen in Europa, tätig in 22 europäischen Ländern, sowie Kolumbien, Chile, China, Malaysia, Singapur, Brunei und Japan. Innerhalb der PHS verantwortet die Abteilung Group IT (PGIT) das Neuwagen-Berichtswesen für angeschlossene Fachbereiche. Bis vor kurzem mit einem kleinen Team und ohne ein DWH als analytische Zwischenschicht, direkt auf den Quellsystemen. Wir begleiten die PGIT aktuell auf dem Weg zu einer modernen, Azure-basierten analytischen Plattform. Von Anfang an wird ein besonderes Augenmerk auf enge Zusammenarbeit mit den Fachanwendern, frühe Ergebnispräsentation und flexible Reaktion auf Änderungen gelegt. Wer hierbei Agile BI vermutet, liegt genau richtig. Ein wichtiges Ziel ist es auch das Analyseteam zukünftig zu entlasten. Hierfür wird angestrebt in den Fachbereichen datengetriebenes Arbeiten und Self-Service BI zu etablieren. Unser Vortrag behandelt die bisher gemachten Erfahrungen und geht auf die eingesetzten Techniken und Methodiken rund um Data Vault, DWH Automatisierung, agiler Vorgehensweise und der Nutzung moderner Azure Cloud-Komponenten ein.
Vortrag Teilen
ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. An AI project was started to get reliable + fast results on root cause discovery. Speed is important because production runs 24 hours/7 days a week. The target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.
Target Audience: Production manager, quality manager, CDO, CIO
Prerequisites: none
Level: Basic
Extended Abstract:
The ZF plant Saarbrücken, Germany, manufactures around 11,000 transmissions per day. With 17 basic transmission types in 700 variants, the plant manages a large number of variants. Every transmission consists of up to 600 parts. Each transmission is 100% tested in every technical detail before shipment. The plant Saarbrücken is a forerunner and lead plant in innovative Industry 4.0 technologies. Therefore, activities were started to tackle one significant challenge, which is caused by the enormous variant diversity: Finding root-causes for unsuccessful end of line testing. The management of the complexity is a big challenge because transmission parts can be produced in a huge number of variant processes. Process experts from each domain, like quality and testing, assembly departments and manufacturing units, had to spend significant time in analyzing influencing factors for malfunctioning and deciding on best action to prevent end of line test failures.
Therefore, an AI project was started with the objective to get reliable and fast results on root cause discovery. Speed is important because production runs 24 hours / 7 days a week. The sooner the real reasons for malfunctions are discovered, the sooner activities can be implemented to avoid bad quality. This saves a lot of time and reduces significant waste. The Target is to reduce waste in certain manufacturing domains by 20%. The key success factor is the fast detection mechanism within the production chain delivered by AI.
Complex root-cause findings can be reduced from several days to hours.
ZF's intention with the digitalization approach is to deliver fast information to the people who are responsible for decision processes to keep a plant in an optimal output with high quality products. A self-learning AI solution Predictive Intelligence from IS Predict was used to analyze complex data masses from production, assembly, and quality to find reliable data patterns, giving transparency on disturbing factors/factor combinations. For training algorithms, end to end tracing data was used, made available in a data lake.
Das Wasserkraftwerk der Zukunft wird ein 'transparentes Kraftwerk' sein. Das bedeutet, dass umfassende, detaillierte Informationen über den aktuellen und zu erwartenden Zustand der Anlage kontinuierlich verfügbar sind, im Idealfall sekundengenau. Die VERBUND Hydro Power GmbH (VHP) – eines der großen europäischen Wasserkraftunternehmen – will dieses Ziel mit digitalen Zwillingen und virtuellen Sensoren erreichen. Der Einsatz von digitalen Zwillingen wird anhand der Turbine eines Wasserkraftwerks am Beispiel von Verbund Hydro Power gezeigt.
Zielpublikum: Project Manager Digital Transformation, Data Engineer, CDO, Data Scientist, IoT Manager, Industrie 4.0 Manager, Decision Makers
Voraussetzungen: Keine Voraussetzung notwendig
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Das Wasserkraftwerk der Zukunft wird ein 'transparentes Kraftwerk' sein.
Das bedeutet, dass umfassende, detaillierte Informationen über den aktuellen und zu erwartenden Zustand der Anlage kontinuierlich und idealerweise sekundengenau zur Verfügung stehen.
Die VERBUND Hydro Power GmbH (VHP) – eines der großen europäischen Wasserkraftunternehmen – will dieses Ziel mit Digitalen Zwillingen und virtuellen Sensoren erreichen. Der Einsatz von digitalen Zwillingen wird anhand der Turbine eines Wasserkraftwerks am Beispiel der Verbund Hydro Power gezeigt.
Der digitale Zwilling ist das virtuelle Abbild eines bestimmten Assets, das sein physisches Gegenstück über dessen gesamte Lebensdauer begleitet. Seine virtuellen Sensoren liefern Informationen insbesondere in Situationen in denen die reinen Sensordaten nicht ausreichend sind. Verschiedene Arten der Degradation wie Kavitation, Abrasion, Korrosion, Verschmutzung oder Ermüdung können erkannt und in die Zukunft projiziert werden.
Für den Betreiber dient der digitale Zwilling zur Sicherstellung der Verfügbarkeit, zur Durchführung von vorausschauender Wartung und optimiert den Betrieb in Bezug auf Leistung, Betriebszeit oder Betriebskosten.
Der agile Antrieb von Scrum – Das Backlog Refinement
Flughäfen sind eine komplexe Echtzeit-Umgebung, für die es in vielen Fällen keine passende Standardsoftware gibt. Um in Zeiten von hoher Auslastung das Risiko von Verspätungen zu reduzieren, welche schnell den europäischen Luftraum durch Kettenreaktionen beeinflussen können, muss die Software auf die speziellen Herausforderungen der Infrastruktur des jeweiligen Flughafens angepasst werden. Doch, wie plant und koordiniert man nachhaltig Lösungen in solch einer hochkomplexen Umgebung?
Zielpublikum: Project leader, decision makers, Scrum Master, Devloper, Product Owner
Voraussetzungen: SCRUM Basics
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Für Jeff Sutherland, Mitbegründer von SCRUM, ist das Backlog Refinement das Rückgrat eines funktionierenden Scrum Teams. Doch wie kann dieses wichtige Event erfolgreich etabliert werden? Der Scrum Guide widmet dem Event lediglich einen kurzen und knappen Absatz.
Bei der Entwicklung einer disruptiven Lösung, einer automatisierten Dispositionssoftware für Bodenverkehrsdiensten an einem großen Flughafen, bestätigte sich Sutherlands Theorie zum Backlog Refinement. Das Event wurde eines der wesentlichen Erfolgsfaktoren für die Umsetzung des agilen Projekts. Und das, obwohl oder geradeweil die Voraussetzungen für das Projekt sehr herausfordernd waren:
o ein komplexes Produktportfolio mit vielen Abhängigkeiten zwischen den unterschiedlichen Lösungen
o einem Geschäftsführer als Product Owner, der dem Team nur Teilzeit zur Verfügung stand
o keine Möglichkeit Business Analysten einzubinden
o Expertenwissen, welches nur in den jeweiligen Silos vorhanden war
o einer knappen Vision und keine ausformulierten Anforderungen an das Produkt
o die Gefahr am Flughafen durch Kettenreaktionen bei Verspätungen den Transport von Passagieren am gleichen Tag zu gefährden oder wichtige Slotzeiten für den Luftraum zu verlieren
o eine große Anzahl von kritischen Stakeholdern
Nils Hyoma wird in seinen Vortrag zeigen, wie sein Team dank des Refinements mit den komplexen Aufgaben zurechtgekommen ist. Hierbei wurden etwa nach und nach kritische Stakeholder gezielt integriert, die Software-Entwickler in die Verantwortung für Anforderungsermittlung genommen sowie durch Kollaboration mit anderen Teams Abhängigkeiten aufgelöst und Releases koordiniert.
Das geplante und strukturierte Event wurde neben der Entwicklung der Software auch zum Antrieb des Change-Managements sowie der agilen und digitalen Transformation genutzt.
Der Vortrag basiert auf Erfahrungen, welche in einem agilen Projekt in einer sehr komplexen Umgebung gewonnen worden sind und lebt von diesen. Nils Hyoma wird einige Ansätze zeigen und dann erläutern, was der Nutzen dieser ist. Er wird eine von vielen Möglichkeiten aufzeigen das unterschätze Event zielführend zu nutzen.
KI ist in der Fachwelt gerade in aller Munde. Ab was ist Chance, was ist Hype? Wir setzen Natural Language Processing seit vielen Jahren in der Qualitätssicherung von Anforderungen und Tests ein. Beispiele sind die automatische Prüfung von Anforderungen und Testgenerierung aus User Stories. In diesem Vortrag zeigen wir an konkreten Beispielen auf, was möglich ist und wo die Grenzen sind. Damit wollen wir die großen Chancen der Textanalyse aufzeigen, ohne in Buzzwords zu verfallen.
Zielpublikum: Decision Makers, Business Analysts, Data Engineers
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger
Extended Abstract:
In Wissenschaft und Praxis herrscht Revolutionsstimmung. Sprachassistenten simulieren natürliche Gespräche, Wetter- und Sportberichte werden automatisch generiert ohne, dass ein Mensch beteiligt ist, Systemüberwachung funktioniert automatisch per Anomalie-Erkennung oder man schiebt gleich das ganze Word-Dokument in einen automatischen Übersetzer. Der Eindruck von unendlichen Möglichkeiten drängt sich auf – auch in der Qualitätssicherung. Aber wie viel von diesen Ansätzen funktionieren in der Praxis wirklich – oder ist die Revolutionsstimmung tatsächlich nur eine Goldgräberstimmung?
Wir setzen Natural Language Processing (NLP) Techniken seit vielen Jahren bei mittlerweile über 60 Projekten in Automotive und Versicherungsbereich täglich zur Qualitätssicherung von Software ein. Täglich werden Millionen von Worten Text durch unsere Analysen gejagt. Beispiele sind die automatische Prüfung von Anforderungen, Testgenerierung aus User Stories oder automatisierte Traceability Analysen. Weiterhin machen wir immer wieder Studien mit unterschiedlichsten Machine-Learning- bzw. Artificial-Intelligence Ansätzen (ML/AI) um herauszufinden, ob der Stand der Technik reicht, um in der Qualitätssicherung produktiv eingesetzt zu werden.
Dabei ergibt sich ein etwas differenzierteres Bild davon, was mit NLP, ML und AI möglich ist. In diesem Vortrag zeigen wir drei Dinge auf:
Erstens, was ist der Stand der Technik? Welche Fähigkeiten bieten moderne Ansätze und welche Rollen in der Qualitätssicherung können wie profitieren.
Zweitens, wo sind dabei die Herausforderungen? Bei der Anwendung der Methoden zeigen sich schnell technische Herausforderungen (z.B. Echtzeitfähigkeit), Herausforderungen mit Daten (z.B. Grammatikanalysen auf englische Texte von Nicht-Muttersprachlern) und Herausforderungen auf der menschlichen Ebene (z.B. Akzeptanz).
Drittens, wo sind die Grenzen? In einer wissenschaftlichen Studie haben wir ganz konkret an Unternehmensguidelines analysiert, welche Aspekte von Qualität automatisiert prüfbar sind und welche nicht. Aus dem, was nicht möglich ist, lässt sich eine einfach anwendbare Checkliste erstellen, die mir sagt, welche Themen ich sinnvoll angehen kann und wovon ich die Finger lassen muss.
Dieser Vortrag zeigt Entscheidern und Anwendern also die großen Chancen der Textanalyse auf, ohne in unrealistische Erwartungen oder gar Buzzwords zu verfallen.
Der Vortrag präsentiert aktuelle Entwicklungen in der Anwendung von KI insbesondere im Kontext von Digital Twins im Automobilbereich. Konkrete Einsatzszenarien und Erfahrungen aus der Praxis zeigen, wie durch Analyse von Daten aus heterogenen Quellen neue Produkte und Services entwickelt, sowie Prozesse und Planungen optimiert werden können und zeigen die Potenziale für den Einsatz von KI im Automobilbereich. Aktuelle Chancen und Herausforderungen des Einsatzes von KI in Unternehmen werden diskutiert.
Zielpublikum: Softwareentwickler, Architekten, Projektleiter
Voraussetzungen: Grundsätzliche Kenntnisse über die Methoden der Künstlichen Intelligenz
Schwierigkeitsgrad: Anfänger
Extended Abstract:
1) Smart Data Analytics im Automobilbereich: aktuelle Entwicklungen in der datenbasierten Digitalisierung
2) Konkreten Einsatzszenarien für Data Science und Methoden der Künstlichen Intelligenz in datengetriebenen Geschäftsprozessen
3) Neue Produkte und Services mittels unternehmensübergreifender Analyse von Daten aus heterogenen Quellen
4) Optimierung von Prozessen und Planungen
5) Relevante technische Ansätze und Erfahrungen aus der Praxis.
This session looks at how data science workbenches and machine learning automation tools can help business analysts to become data scientists and so meet the demand of business.
Target Audience: CDO, Head of Analytics, Data Scientist, Business Analysts, CIO
Prerequisites: Basic understanding of Data Science
Level: Advanced
Extended Abstract:
The demand for analytics is now almost everywhere in the business. Analytics are needed in sales, marketing and self-service, finance, risk, operations, supply chain and even HR. However, the current shortage of data scientists and the reliance on detailed skills such as programming, has led many corporate executives to question current approaches to development of high value analytical models and ask if they can be accelerated in any way to improve agility and reduce time to value. This session looks at this problem in detail and at how emerging data science workbenches and machine learning automation tools can help reduce the reliance on highly skilled data scientists and allow business analysts to become data scientists and so meet the demand of business.
o The explosion in demand for analytics
o Data science and the modern analytical ecosystem
o Challenges with current approaches to analytics
o Requirements to reduce time to value and accelerate development of analytical models
o Improving productivity by integrating Information catalogs and data science workbenches, e.g. Amazon SageMaker, Cloudera CDP Machine Learning, IBM Watson Studio Microsoft, Azure ML Service,
o Accelerating model development, monitoring and model refresh using ML automation tools, e.g. DataRobot, SAS, Dataiku Data Science Studio, Big Squid
o Facilitating rapid analytics deployment via analytics as a service to maximise effectiveness and competitive edge
The engagement of IT staff in organizations has been done for decades via a single function or department. Whatever title it bears, the single counter IT takes care of everything under the digital sun. This model generates unhealthy behaviors in the IT ranks that are detrimental to the enterprises that need digital to operate, evolve, transform —or survive.
Drawing a parallel with a more mature industry, the current distribution of roles is analyzed and compared. It shows that the standard structure is creating conflicts of roles that would be unacceptable —and in some cases illegal— in many other fields of work.
The typical IT engagement model in organizations has a direct effect on what constitutes success and how it is measured. These measures -in their current state- create a ripple effect on quality and value of digital investments.
You should come to the inevitable conclusion: it is more than time to radically re-think how technology teams engage in organizations.
Um die wachsende Anzahl Nutzer und damit steigende Anforderungen an einem System bewältigen zu können, sowie die Effizienz und Qualität des Entwicklungsprozesses zu steigern, haben sich in der klassischen Softwareentwicklung Prinzipien, wie Continuous Integration (CI) und Test Driven Development (TDD) durchgesetzt. Dieses Seminar möchte beantworten, was hinter CI und TDD steckt und wie diese Prinzipien in den Lifecycle von DWH-Systemen eingebunden werden.
Zielpublikum: BI/DWH Entscheider, BI/DWH Programm- und Projektleiter, BI/DWH Architekten und Entwickler, interessierte IT- und Fachbereichsverantwortliche und Anwender Voraussetzungen: Voraussetzung sind grundlegende Kenntnisse in den Bereichen Daten- und Informationsmanagement. Fortgeschrittene Expertise in den Bereichen Data Warehouse Konzeption, Architektur, Entwicklung und Betrieb ist vorteilhaft. Schwierigkeitsgrad: Fortgeschritten
Data Science hat sich mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert. Nun gilt es einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann. Anhand eines Use Case aus der Versicherungsbranche wird aufgezeigt, wie sich Data Science verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.
Zielpublikum: Data Scientist, Projektmanager, Entscheidungsträger, KI-Verantwortliche
Voraussetzungen: Grundlegende Kenntnisse der Data Science sind für den Talk von Vorteil, stellen aber keine Muss-Anforderung dar.
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Nachdem sich Data Science mittlerweile als wichtiges Instrument im Rahmen der Wertschöpfung in vielen Unternehmen etabliert hat, gilt es nun einerseits Rückschau zu halten, wie Data Science einbettet und genutzt wird. Andererseits ermöglichen neue Methoden, Techniken und Konzepte, dass Data Science noch effektiver in den Unternehmen eingesetzt werden kann.
Der Beitrag gibt einen Überblick zum Status quo der Data Science Nutzung in Unternehmen und stellt aktuelle Trends vor. Im Anschluss wird anhand eines Use Case aus der Versicherungsbranche konkret aufgezeigt, wie sich Data Science im Wertschöpfungsprozess verankern lässt, welche Herausforderungen dabei zu meistern sind und wo sich Benefits realisieren lassen.
In einem pragmatischen Erfahrungsbericht erklärt Siemens Mobility wie sie mit der Railigent Plattform die Digitalisierung in einem sehr traditionellen Umfeld etablieren. Dabei ist immer der erzielte Nutzen im Fokus des Projektes. Betreiber von Zügen profitieren von einem daten-getriebenen Ansatz durch reduzierte Wartungskosten und optimierten Nutzungsgrad. Visuelle Analytik ist nur der Anfang, wenn Predictive Analytics Zusammenhänge aufzeigt und Echtzeit-Informationen Entscheidungen beim operationalen Betrieb der Züge verbessern.
Zielpublikum: Entscheider, CDO, CIO, Leiter CC, Architekten
Voraussetzungen: Basic understanding of buisiness value in analytics
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Business Challenge:
To prevent delays due to equipment failures, Siemens Mobility needed to provide fast, accurate insights to customers through its app. The company needed real-time analytics for both IoT and legacy data.
Solution:
With the Railigent platform, Siemens customers get insights via Railigent, the Siemens Mobility app. The app allows for automated corrective action and quick decision-making.
Predicting failures before they occur is possible with data analysis at the edge. Siemens collects every piece of data it can – most of which is collected via sensors at the edge – then cleans and prepares it for analysis. Some trains have nearly 2,000 components that must be monitored while they are traveling; for example, to detect vibration patterns of train bearings. Older trains pose difficult data challenges, but the company still needs to be able to monitor and measure their performance and make improvements.
Analytics team are struggling to create, publish, and maintain analytics to meet demand. Many analytics projects fail to meet expectations and deliver value. DataOps is the new approach combining tools and approaches to simplify the development of analytics and ensuring high quality data. DataOps shortens the life cycles, reduces technical debit and increases analytics success. This session covers the best practices for the analytics team to deliver DataOps.
Target Audience: Data scientists, project leaders, analyst, data engineers, project sponsors, business leaders
Prerequisites: None
Level: Professional
Extended Abstract:
DataOps is the next generation of analytics delivery that addresses the major issues of analytics technical debt, reuse of code, data quality, and incorporates the flexibility of agile. This session defines what DataOps is (it is not DevOps) and highlights the best practices to address some of the largest challenges preventing analytics teams from delivering analytics value. The session outlines how DataOps is used to inspire teamwork, improve data quality, incorporate agile delivery, and establish an environment for reuse and innovation.
Für jede Transformation gilt: Sie ist der Übergang vom Bewährten zum Neuen! Es versteht sich, dass es dabei Befürworter und Skeptiker gibt. Beide Parteien wollen dabei nur das Beste für ihre Organisation und folgen einer in sich schlüssigen Logik. Mit der Zeit entstehen Gräben und es bilden sich Fronten. Dies mündet in einen Teufelskreis, der die Zusammenarbeit erschwert und in Kompromisse, die am Ende beiden Lagern recht geben. Der Referent zeigt anhand von Kundenbeispielen wie Führungsteams in vier Schritten gemeinsam die Zukunft gestalten.
Zielpublikum: Project leader, decision makers, Transformation Leads
Vorraussetzungen: Transformationserfahrung oder Erfahrung mit komplexen Projekten und Veränderungen
Schwierigkeitsgrad: Fortgeschritten
Die Wertschöpfung durch Daten ist heute ein zentrales Thema. CDOs werden installiert, BICCs als zentrale Einheiten für die Schöpfung von Potenzialen der Daten geschaffen. In der Operationalisierung stellt sich dann schnell heraus, dass es eines Fundamentes bedarf. Data Governance gibt Antworten auf diese Fragen. Das Data Governance Starterkit DB ermöglicht einen strukturierten Einstieg ins Thema, gibt Orientierung, macht den Standort transparent und weist den Weg.
Zielpublikum: CDO, CIO, Data Office, Data Council, Verantwortliche für datengetriebene Initiativen und Programme
Voraussetzungen: Ambitionen im Kontext datengetriebener Initiativen
Schwierigkeitsgrad: Fortgeschritten
How is machine learning used in the real world? How did our customer Liebherr mitigate the problem of unreliable suppliers, therefore making their manufacturing process more efficient? How can our customers work their way through thousands of documents, quickly identifying the relevant ones? In this talk, Data Scientist Björn Heinen will elaborate on his past and current projects in the manufacturing industry by explaining how tangible customer problems have been solved using classical machine learning algorithms, computer vision and more.
Target Audience: The session is intended to reach those interested who are working in the machine and system engineering industry or those in other sectors who would like to optimize their processes with the help of AI and use business data successfully in the long term.
Prerequisites: No prerequisites needed.
Level: Basic
In this session, the ERGO Group, one of Europe's leading insurance companies, presents their AI Factory for development and operationalization of AI models. The session gives an architectural overview of the AI Factory's components. Furthermore, it explains how cloud-native technologies like Openshift and AWS Cloud Services aided in moving towards a data driven organization. A deep dive into the AI Factory's data ingestion process shows how metadata-driven data ingestion supports Data Governance in an enterprise context.
Target Audience: AI Leader, Insurance, Decision Maker, Data Engineer
Prerequisites: Background knowledge AI, Big Data Technologies, BIA
Level: Advanced
Extended Abstract:
In times of Advanced Analytics and AI, enterprises are striving towards automated and operationalized analytics pipelines.
In this session, ERGO and saracus consulting present the ERGO Group AI Factory. In particular, the presentation retraces how ERGO – in collaboration with saracus consulting – evolved from an on-premises analytics environment to an automated AI-Ops environment running on modern technologies within the AWS Cloud.
To this end, strategic aspects of delivering AI as a service as well as important components for delivering automated AI Pipelines in enterprises are highlighted.
Furthermore, the speakers take a deep dive into the technical aspects of the AI Factory's metadata driven data ingestion pipeline, emphasizing how it supports the key functionalities for Data Governance within ERGO's Data Strategy.
Vortrag Teilen
Kubeflow ist ein mächtiges Framework für die Entwicklung, Überwachung und Operationalisierung von KI. Die Ressourcen für das Trainieren, Optimieren oder das Serving der Modelle stellt Kubeflow 'As a Service' bereit. Einzelne Schritte werden in einer Pipeline mit Kubernetes in einem Cluster ausgeführt – On Premise, in der Cloud oder Hybrid in verschiedenen Umgebungen. Dabei werden notwendige Ressourcen dynamisch allokiert. In einer Live Demonstration wird Kubeflow zusammen mit Tensorflow und Tensorflow Extended (TFX) vorgestellt.
Zielpublikum: Data Scientists, project leader,
Voraussetzungen: Grundkenntnisse KI
Schwierigkeitsgrad: Advanced
Extended Abstract:
Kubeflow ist eine auf Kubernetes aufsetzende Applikation, die aus mehr als 80 einzelnen Microservices zusammengestellt ist. Kubeflow ist von Google entwickelt worden und als Open Source Projekt veröffentlicht worden. Kubeflow läuft auf Kubernetes und damit wahlweise in der Cloud oder On Premise. Alle großen Cloudprovider bieten Kubeflow 'as a Service' an, was das Provisioning sehr einfach macht. Kubeflow setzt auf Argo als Workflow Engine auf. Einzelne Schritte wie die Datenvalidierung, die Modellerstellung, das eigentliche Trainieren oder das Serving, also die Verwendung von KI in den operativen Prozessen eines Unternehmens, werden von Argo orchestriert. Kubeflow kann als Multi-Tenant Solution aufgesetzt werden, um unterschiedliche Projekte und Kunden gleichzeitig zu unterstützen. Selbstverständlich ist Kubeflow Multi-User fähig und bringt eine eigene Benutzerverwaltung mit. Die Entwicklung geschieht über Notebook-Server, die Jupyter Notebooks dem Entwickler zur Verfügung stellen.
Kubeflow kann mit anderen KI-Frameworks, beispielsweise Tensorflow und Tensorflow Extended (TFX) kombiniert werden. Alle Prozesse werden als Pipeline designed und ausgeführt. Die Überwachung der Pipelines geschieht über einen Metadata Store. Dies beinhaltet vom Data Scientist definierte Metriken zur Überwachung ebenso wie einen direkten Zugriff auf Tensorboard für eine weiterführende Analyse. Die dafür notwendigen Artefakte werden in Minio persistiert, einem Open Source Object Store.
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz.
Zielpublikum: Data Engineer, Data Scientist, Project Leader, Decision Makers
Voraussetzungen: Basic AI Knowledge
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen.Dem TNG Innovation-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte 'Deep Fake'-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze, sowie verschiedene Algorithmen zur Gesichtserkennung.
In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Mehrere Live-Demonstrationen runden das Erlebnis ab.