Die im Konferenzprogramm der TDWI München 2023 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen kannst du dir deinen eigenen Zeitplan zusammenstellen. Du kannst diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Hier kannst Du die Programmübersicht der TDWI München 2023 mit einem Klick als PDF herunterladen.
Claudia Pohlink beschäftigt sich seit vielen Jahren mit Daten und KI. Dabei beobachtet sie die Trends und Entwicklungen auch außerhalb Europas und hat schon den einen oder anderen Hype überlebt.
Sie stellt konkret die Datenjourney der Deutschen Bahn vor. 2020 beschließt der Vorstand den Grundsatz des freien Datenzugangs und der freien Datennutzung innerhalb der Bahn, Ausnahmen sind zu begründen. Ein revolutionärer Beschluss, der zudem zu konzernweiter Datentransparenz verpflichtet. Wie sehen die Learnings und Erfahrungen der letzten 3 Jahre aus? Funktioniert so ein Datenkatalog und sind Data Owner wirklich so leicht zu finden? In 2023 startet die DB die AI Factory und zündet das Next Level. Gehen Sie mit auf diese Reise und lassen Sie sich überraschen, ob Sie pünktlich sind oder wo Sie landen?
Claudia Pohlink verfügt über 20 Jahre Berufserfahrung in den Bereichen Data Science, Data Management und Innovation Management. Aktuell leitet sie als Chief Expert Data bei der Deutschen Bahn das Data Intelligence Center und treibt die Daten & KI Strategie des Konzerns voran inkl. solcher Themen wie Data Governance, Datenmanagement, Datenarchitekturen, Data Mesh sowie Datenkatalog.
Davor leitete sie das Machine Learning Team bei den T-Labs, der Forschungseinheit der Deutschen Telekom. Als Co-Founderin von #startupnight, #DigitalWanderlust und #AI4DiversityHackathon stärkte sie den Transfer von Wissenschaft in die Wirtschaft. Zu ihren früheren Stationen zählen MTV Networks und Jamba/Rocket Internet.
Nebenher ist Claudia Pohlink auch als Speakerin und Autorin aktiv, sie engagiert sich für die Bildung von Kindern und jungen Menschen im Bereich Daten & KI und gibt regelmäßig ihr Wissen bei Konferenzen sowie an Hoch-/Schulen weiter. Sie ist seit 2020 Mitglied und seit 2022 Vorsitzende des Vorstandes im Arbeitskreis AI bei der BITKOM. 2019 wurde Claudia als „Global Women Leader in AI“ und kürzlich als „40 over 40 - Germany's Most Inspiring Women 2022“ ausgezeichnet.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/claudia-pohlink/
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/janine.ellner
Die Schlagworte 'Data Driven Company' und 'Data Driven Culture' sind mittlerweile in aller Munde. Die Firma congstar hat sich das Ziel gesteckt, diese Schlagworte mit Leben zu füllen. Unsere Vision: Wir wollen analytisches Arbeiten bzw. die Nutzung von Analysen nicht als elitäre Kunst von wenigen etablieren, sondern als etwas 'für jeden'. Wie wir diese Herausforderung angehen, welche Erfahrungen wir auf unserem Weg gemacht haben und was Data Driven Culture mit Tango zu tun hat, möchten wir euch in diesem Vortrag näherbringen.
Zielpublikum: Projektleiter:innen, Entscheider:innen
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die Notwendigkeit, Daten für Entscheidungszwecke zu nutzen, ist heutzutage bei den meisten Business-Leadern akzeptierte Realität. Die Schlagworte 'Data Driven Company' und 'Data Driven Culture' werden gern bemüht. Die Firma congstar hat sich das Ziel gesteckt, diese Schlagworte mit Leben zu füllen. Der Analytics-Bereich hat den Lead, um die Transformation hin zur Data Driven Culture und Data Driven Company aktiv zu gestalten.
Dieser Auftrag hat es in sich, denn ein so umfassender Change ist nicht das typische Business eines Analytics-Bereiches. Unsere Aufgaben haben sich dadurch deutlich erweitert: statt der schwerpunktmäßigen Entwicklung von Artefakten stehen jetzt noch zusätzlich die Entwicklung von Menschen und Kultur auf unserem Plan. Warum? Keine Data Driven Company ohne Data Driven Culture, keine Kultur ohne Menschen. Um die Tragweite der Veränderungen und Herausforderungen zu verstehen, muss Folgendes gesagt werden: Unsere erste zentrale Rahmenbedingung ist es bei allem Change, die kleine, agile Organisation von congstar nicht zu überlasten. Unsere zweite, fast schon widersprüchlich wirkende Rahmenbedingung: Wir wollen prinzipiell alle Mitarbeiter so entwickeln, dass sie sich zutrauen, mit den für ihre Fragestellungen relevanten Daten zu arbeiten und sich selbst Antworten zu geben. Wir glauben nämlich fest daran, dass eine lebendige Data Driven Culture nur dann entsteht, wenn die Arbeit mit Daten kein 'Ding der anderen' ist, sondern sich jeder Mitarbeiter als berechtigt und befähigt fühlt.
Unsere Vision: Wir wollen analytisches Arbeiten bzw. die Nutzung von Analysen nicht als elitäre Kunst von wenigen etablieren, sondern als etwas 'für jeden'.
Wir haben daher beschlossen, die Mitarbeiter der Fachbereiche in den Fokus aller Aktivitäten zu stellen. In Konsequenz haben wir als einen ersten Schritt die Bedürfnisse, das Verhalten und die Wünsche der aktuellen und potenziellen Analytics-Anwender im Kontext Daten-Nutzung auf Basis einer Befragung modelliert und im Ergebnis Personas erstellt. Diese Personas leiten nun uns und die Anwender durch den Change und die Analytics-Welt.
Als zentralen Erfolgsfaktor haben wir den Spaß an der Arbeit mit Daten identifiziert - als zentrales Hemmnis die Einschätzung der eigenen Fähigkeiten. Hier setzen wir aktiv an: Die Vermittlung von Spielerischer Leichtigkeit, Erfolgserlebnissen und Einfachheit ist ein wichtiges Ziel unserer Aktivitäten. Wir wollen Vertrauen in die eigenen Kompetenzen aufbauen, indem wir die Einstiegshürden so niedrig wie möglich gestalten. Nur wer den Weg in die Datenwelt betritt, kann auch weiter kommen. Dafür setzen wir am Toolset, am Dataset und selbstverständlich auch am Skillset an.
Kann die Transformation so gelingen? Wir haben keine abschließenden Antworten, denn wir sind mittendrin. Wir haben aber erste klare Erfolge. Wichtige Erfahrungen möchten wir teilen. Und die Frage erläutern, was Data Driven Culture mit Tango zu tun hat.
Für dich: Akutes Beispiel wäre der Auswahlprozess Pyramid, das Modellieren der neuen Datenmodelle mit den Fachbereichen, der Communityaufbau. Die Idee des Teilens und zusammen Machens werden sich als roter Faden durchziehen.
Alena Haget ist seit 5 Jahren bei der congstar GmbH tätig. Als Product Owner im Bereich Data & Analytics ist sie verantwortlich für die Betreuung der Fachbereiche und der Etablierung einer Data Driven Culture. Ihr besonderes Interesse gilt fachlichen Anforderungen und innovativen Analytics-Tools.
Torsten Macht ist studierter Wirtschaftsinformatiker und Analytics-Enthusiast, der seit zwei Jahren als IT-Analyst und Scrum-Master bei congstar arbeitet. Mit seiner Kreativität und Innovationsbereitschaft bedient er die Schnittstelle zwischen agiler Entwicklung, Betrieb und digitaler Transformation. Seine Leidenschaft ist die Einführung neuer Technologien im Kontext agiler Serviceentwicklung.
Janine Ellner ist als Lead Consultant für OPITZ CONSULTING Deutschland GmbH im Bereich Analytics tätig. Hier liegt ihr Schwerpunkt auf der ganzheitlichen Betreuung des Kunden. Dies umfasst die Analyse von Anforderungen, die Unterstützung bei fachlichen Fragestellungen sowie die Weiterentwicklung von DWH-Systemen. Ihr besonderes Interesse gilt Data-Culture-Themen sowie innovativen Technologien und modernen Analytics-Werkzeugen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/janine-ellner/
Data Lakehouse, Data Fabric, Data Warehouse, Data Lake, Data Mesh, Data Estate, Data Virtualisation, Data Vault ... was sind die Kriterien für eine anwendungsfallabhängige Auswahl einer Datenarchitektur? Was sind technische und was eher organisatorische Konzepte? Wie lässt sich das mit den Anforderungen an moderne analytische Datenplattformen von Governance über data quality bis responsibility übereinbringen? Begriffsbestimmung und Einordnung der Konzepte. Erfahrungen aus dem Projektgeschäft (herstellerunabhängig) -> Best-Practice-Ansätze
Zielpublikum: CIO, IT-Leiter:innen, IT-Architekt:innen, Data-Analyst:innen
Voraussetzungen: Interesse und ggf. offene Fragen
Schwierigkeitsgrad: Fortgeschritten
Alexander Jochum ist seit 30 Jahren tätig im Dienste der Informationen für Geschäftssteuerung - als Berater bei Information Ressources und bei Oracle und Mitbegründer von DATA MART Consulting im Jahre 1997.
Als Wirtschaftsingenieur schon immer sowohl an der fachlichen Fragestellung als auch an der technischen Umsetzung interessiert und hier in vielen internationalen Projekten von Konzernrechnungslegung bis eCommerce begeistert in den Projekten tätig.
Lukas Gomber unterstützt seit 7 Jahren als Berater Kunden dabei ihre analytischen Fragestellungen auf der passenden Plattform selbst zu beantworten. In den letzten Jahren hieß das vor allem der Aufbau analytischer Datenplattformen in verschiedenen Cloud-Umgebungen. Zunächst als Statistiker und Marketinganalyst und seit 2019 als Senior Consultant bei DATA MART, hat sich ein Fokus für Handelsunternehmen und deren schnell wachsende Datenbedürfnisse entwickelt.
In der Vergangenheit wurden Daten häufig in einem monolithischen Data Warehouse gespeichert. Heute, mit dem Aufkommen von Big Data und dem Ruf nach Advanced Analytics, müssen bestehende Datensilos aufgebrochen werden. Eine besondere Herausforderung obliegt dabei der Öffnung des SAP-Universums und dem Zugriff auf die Datenschätze der unterschiedlichen SAP-Quellsysteme.
Der Dozent präsentiert, wie SAP und Databricks Lakehouse auf direktem Wege kommunizieren können, ohne dass es Third-Party-Werkzeuge bedarf.
Zielpublikum: Fachleute, die SAP-Daten in eine Datenplattform (hier Databricks Lakehouse) integrieren möchten
Voraussetzungen: Grundlegendes Verständnis des SAP-Integrationsframeworks ODP und der Cloud-Infrastruktur (z. B. Azure Datalake Storage) sowie Databricks Lakehouse
Schwierigkeitsgrad: Fortgeschritten
Dr. Julius von Ketelhodt gestaltet und entwickelt seit vielen Jahren Data & Analytics-Projekte für namhafte Kunden aus verschiedenen Branchen. Sein Fokus liegt auf der Integration relevanter Daten aus verschiedenen SAP-Quellsystemen in führende Cloud-Datenplattformen. Als Product Lead leitet er ein Team, um die SAP-Integration weiterzuentwickeln und stetig zu vereinfachen. Sein Hintergrund liegt in der Physik mit Promotion im Bereich Seismologie.
Python erfreut sich immer größerer Beliebtheit im Datenmanagement. Der Einstieg in Python mit Paketen wie dbt, pyspark, keras, pytorch ist einfach. Rapid Prototyping mit Notebooks und die ersten Codezeilen sind schnell entwickelt. Doch sobald der Code produktiv geht ... (und manche wären schon froh, wenn der Code überhaupt produktiv geht).
Die Session geht auf Pakete und Techniken rund um Code-Formatierung, Linting, Testing, Security, Dokumentation, Versionskontrolle ein, um das Datenmanagement mit Python auf ein neues Level zu bringen.
Zielpublikum: Data Engineers, Data Architects, Projektleiter:innen
Voraussetzungen: Grundkenntnisse in Python
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Python erfreut sich immer größerer Beliebtheit im Datenmanagement. Data Scientists, Data Engineers, ML Developer u. a. nutzen Python für eine Vielzahl von Funktionalitäten: von Datenimport über Datenintegration bis hin zu Machine Learning und Datenvisualisierung. Der Einstieg in Python ist einfach. Die ersten Codezeilen sind schnell entwickelt, doch sobald der Code produktiv geht (und manche wären schon froh, wenn der Code überhaupt produktiv geht) ...
Man spricht viel über die zahlreichen, coolen Pakete rund um das Datenmanagement: pyspark, dbt, pytorch, keras, GreatExpectations sind ein paar Beispiele. Doch was ist mit Software-Engineering und Code-Qualität? Und wie sieht es mit Notebooks aus? Schnelles Prototyping und dann ab in die Produktion damit?
Aber keine Sorge, mit den richtigen Paketen und Techniken gibt es Lösungen in Python. Die Session geht auf Pakete und Techniken rund um Code-Formatierung, Linting, Testing, Security, Dokumentation, Versionskontrolle ein, um das Datenmanagement mit Python auf ein neues Level zu bringen.
Andreas Buckenhofer arbeitet bei Mercedes-Benz Tech Innovation in Ulm als Lead Expert 'Vehicle Data Platforms'. Er verfügt über langjährige Erfahrung in der Entwicklung datenintensiver Produkte. Seine Schwerpunkte dabei sind insbesondere Datenarchitektur, Datenspeicherung, Datenintegration und Datenqualität.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/andreas-buckenhofer/
It's no secret that in today's data-driven world, companies that effectively use data to make decisions have a competitive advantage. Our talk is not about why you should become a data-driven company, but how you should do it. The focus will be on guiding the change of the organizational mindset through a holistic approach including people, infrastructure and use cases for unlocking the full potential of data! The talk will also touch on the challenges that companies face in their data-driven journey and how to overcome them.
Target Audience: Middle Management und CIOs, die Heads of ... Innovation / Digital / Risk, all levels of curious minds who are keen on driving a data-driving decision making in their organization
Prerequisites: Motivation to understand how to become a data-driven company, not why. Whether you are just starting on your data-driven journey or looking to take your efforts to the next level, this talk is suitable for you. Join us to learn how to become a data-driven
Level: Basic
Mariana Hebborn has the responsibility for one of the most valuable assets of our time: data, as Data Governance Lead at Merck Healthcare.
Mariana Hebborn has many years of experience in data analytics, governance, and management. She holds a PhD in Computational Data Processing and to date has worked and led several teams and projects in Data Science and Data Digitization for various companies such as IBM, Fujitsu and Viridium Group in Europe and Asia.
When she is not busy with data-driven missions, she is dedicated to her family and sports activities.
Heiko Beier is an IT professional with 25+ years of experience in designing architectures and data-driven AI-based solutions for automation of business processes. As founder and CEO of Moresophy he combines visionary and strategic thinking with profound knowledge on advanced data intelligence and the ability to execute and motivate teams. His focus is on techniques and processes for implementing explainable, trusted AI on bulk information across the full value chain. As part-time professor he is also a renowned keynote speaker for topics regarding the effective compliant use of AI.
Mit Fundamenten in Actuarial Science, Computer Science und Wirtschaftswissenschaften ist Dr. Jan-Hendrik Weinert ein Datenstratege und Experte für Risk Analytics, der sich dafür einsetzt, eine Kultur der datengetriebenen Entscheidungsfindung in der Finanz- und Versicherungsbranche voranzutreiben. Als Architekt der unternehmensweiten Analytics-Plattform und eines Datenvirtualisierungslayers der Viridium Gruppe fördert er die unternehmensweite, dezentrale Zusammenarbeit mit Daten und beschleunigt die Entwicklung hin zu einem datengetriebenen Versicherer. Sein Engagement trägt dazu bei, die Lücke zwischen Technologie und Geschäftswelt zu schließen.
Vortrag Teilen
Nach einem erfolgreichen PoC werden viele ML-Vorhaben aus Gründen des zeitlichen Aufwandes nicht produktiv umgesetzt. Im Bereich der Prozesssteuerung von Großanlagen können jedoch Optimierungen durch Machine Learning immense Kosteneinsparungen und Produkteffizienz bedeuten. Wir beschreiben den Prozess der Einführung von MLOps in der Azure Cloud zur Steuerungsoptimierung Hunderter Luftzerlegungsanlagen. Wir gehen auf Herausforderungen und Lösungsansätze ein, um MLOps in der Cloud parametrisierbar, skalierbar und überschaubar einzuführen.
Zielpublikum: Data Scientists, DevOps Engineers, Software Engineers, Cloud-Architekt:innen, Entscheider:innen, Project Information Manager
Voraussetzungen: Grundwissen Software Engineering, Machine Learning und DevOps
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die Optimierung von Großanlagen wie Luftzerlegungsanlagen ist von zentraler Bedeutung, um langfristig und lieferkettenübergreifend Kosten zu reduzieren und die Produkteffizienz zu erhöhen. Die Implementierung von anlagenspezifischen Advanced Process Controls ist jedoch teuer, aufwendig und sehr zeitintensiv. Mittels Machine-Learning-Verfahren, insbesondere dem Reinforcement Learning, kann dieser Zeitaufwand auf gerade einmal einen Monat reduziert werden. Das resultierende Machine-Learning-Modell gleicht einem digitalen Zwilling der Anlage, welcher für die Simulation und Optimierung diverser Einstellungen für die Anlage nützlich ist. Ziel nach einem erfolgreichen PoC ist die vollautomatisierte und skalierbare Operationalisierung der gesamten Infrastruktur und Daten-Pipeline. Die Umsetzung dieses Projektes erfolgte aus Gründen von verfügbarer Hardware, Firewall-Richtlinien, Verfügbarkeit und Wartung der Systeme in der Cloud und nicht on-premise.
Dieser Vortrag betrachtet die Migration des Machine-Learning-Projektes von on-premise in die Microsoft Cloud. Wir zeigen, welche Herausforderungen bei der Umsetzung eines skalierbaren MLOps-Prozesses auftreten können und wie diese in diesem Projekt gelöst wurden.
Malwin Weiler ist als Trainee bei Linde Engineering eingestiegen und nun als Advanced Automation Engineer zuständig für Cloud-optimierte Lösungen. Er ist für die Automatisierung und Skalierung des neuen ML-basierenden Model Predictive Control für Luftzerlegungsanlagen zuständig.
Melanie B. Sigl ist Managing Consultant und leitet den Bereich Machine Learning bei PRODATO Integration Technology GmbH. Zusätzlich ist sie Lehrbeauftragte für 'Knowledge Discovery in Databases' am Lehrstuhl für Datenmanagement an der FAU Erlangen-Nürnberg.
High-quality analyses are only useful if they are available in time. By analysing data near-real time, highly up-to-date evaluations can be produced. Based on the technological foundation of Splunk, the workshop will offer practical insights into stream data analysis. Evaluating data streams directly offers considerable added value, especially for time-critical or alarm-based systems. The analysis already takes place during data transmission, as the data stream is potentially infinite.
Maximum number of participants: 40. Laptop is required.
There must be an installation permission on your laptop.
Target Audience: Data Engineer, Data Scientist, IT Engineer, Developer, IT Operations, Security Analyst
Prerequisites: Please bring your own laptop with permissions to install software and internet access. Both Linux and Windows are supported.
Level: Basic
After many years of working with relational databases, Tom Fels started working with stream data analytics platforms in 2018 and became a certified Splunk Architect in 2020. Besides, he also holds trainings around Splunk.
Marie-Christin Kloss has been working at Robotron since 2012 and has found her way from SW testing (automation) to DevOps to data analytics during this time. She has been involved with this since 2015.
Since 2019, she is an architect and head of a data analysis team, with which several large customers are supported from development to operation.
In diesem Vortrag stellen die beiden Referenten die DOAG als Verein und ihre aktuelle Ausrichtung vor und nehmen Position ein zu den relevanten Themen aus dem Umfeld DATA Analytics und KI. Im Anschluss an die Vorstellung des Vereins und seiner Struktur und Zielsetzung werden im Gespräch die Schwerpunkte der Data Analytics Community in der DOAG vorgestellt, betrachtet und eingeschätzt. Dabei nehmen wir insbesondere Bezug auf die Inhalte der nachfolgenden Vorträge und Diskussionen. Die rasant gestiegene Bedeutung von KI seit Beginn des Jahres, die Nutzung von Daten im Rahmen von Data Mesh und die damit verbundene Sichtweise als data as a product sowie verstärkte Wahrnehmung von Data Analytics über die gestiegene, promiente Nutzung im Sport vom Fußball bis zur Formel 1 werden angesprochen.
Gelernter Entwickler und seit 1984 in der IT der IKB Deutschen Industriebank AG in Düsseldorf. In den Jahren 2005-2018 als Teamleiter und Direktor zuständig für Entwicklung des Kreditsystems KreDa der Bank. Die Basis der Anwendung sind ORACLE DB, ORACLE FORMS und Reports sowie seit 2013 ORACLE ADF. Der aktuelle persönliche Schwerpunkt liegt auf Themen der Strategie und Innovation sowie insbesondere der agilen Methoden. Seit 2019 im Fachbereich im Competence Center Kredit. Über die Development Community ergaben sich die ersten Berührungspunkte mit der DOAG und war seit Gründung und bis 2020 Mitglied im DOAG-Anwenderbeirat.
In den letzten Jahren hat er sich neben Vorträgen auf der DOAG K+A und der Arbeit im Anwenderbeirat auch im Arbeitskreis Strategie der DOAG und im Arbeitskreis Nachwuchsförderung in Verbindung mit der #nextgen engagiert. Über diese Aktivitäten ist sein Interesse an der DOAG weiter gestiegen und hat seit 2020 die Möglichkeit als Vorstand der Data Analytics Community die Entwicklung der DOAG mitzugestalten.
Seit Juni 2020 im Vorruhestand und seitdem auch zeitweise als Trainer für Innodrei tätig.
Beruflich bin ich Geschäftsführer und COO bei der Scompler Technologies GmbH. Ich verantworte die Weiterentwicklung der SaaS Plattform, kümmere mich um das operative Tagesgeschäft und berate Kunden bei der Einführung, Integration und Nutzung.
Seit April 2020 bin ich Vorstandsvorsitzender der DOAG. Zuvor war ich Vorstand und Leiter der Data Analytics Community und bin seit 2010 mit kurzer Unterbrechung Vorstandsmitglied (unter anderem als Gründer und Leiter der Infrastruktur und Middleware Community).
Was ich für die DOAG bewirken möchte: Um bei der durch die immer schneller werdende Entwicklung und Transformation von Business und Technologie am Ball zu bleiben, braucht es ein starkes Netzwerk zum Austausch und Wissenstransfer. Die DOAG bildet dieses Netzwerk und vertritt die Interessen der Anwender gegenüber den Herstellern.
Vortrag Teilen
Die Umsetzung einer erfolgreichen Datenstrategie ist nicht einfach, aber die Einschränkungen, die durch zentralisierte Punkt-zu-Punkt-Batch-Architekturen entstehen, machen es noch schwieriger. Daten-Streaming-Plattformen heben diese Beschränkungen auf, indem sie Echtzeit-Konnektivität zwischen SaaS-, Analyse- und Datenbanksystemen ermöglicht, die es mehr Nutzern erlaubt, mehr Daten mit weniger Redundanz und weniger Abhängigkeit von zentralisierten Teams zu nutzen. Was wollen wir an diesem Special Day vorstellen und diskutieren?
Discover the power of combining Amazon Web Services (AWS) and Confluent for real-time analytics and data streaming. This talk explores the synergistic capabilities of both platforms in building scalable, reliable, and high-performance streaming architectures.Learn how AWS data services and Confluent's Apache Kafka-based platform for managing event-driven architectures combine to deliver a solution for your business. Gain practical insights into integration strategies, data transformation, stream processing, and data integration patterns. Join us to unlock the full potential of real-time analytics and data streaming in today's data-driven landscape.
Prerequisites: Basic knowledge of what Kafka and Data Streaming are
Level: Advanced
Nuno Barreto is a Partner Solutions Architect at Amazon Web Services (AWS), specializing in data and analytics. With his vast experience in building successful products in multiple verticals, including the banking domain in Switzerland, he is helping Customers and Partners to develop secure and compliant data solutions in their cloud journey.
Reports play a crucial role in both business operations and meeting regulatory requirements but managing a complex IT system with data flowing through various technologies can make it challenging to identify potential issues and create reliability.
Ramesh Shurma is the founder and CEO of Orion Governance Inc. Prior to starting Orion, Ramesh developed his expertise by working in very data intensive environments as an enterprise architect, application architect, and senior consultant and programmer with a very strong business and technology focus. His vertical market experience spans across Financial Services, Healthcare, Retail and Electronic Design Automation. His Silicon Valley roots taught him the valuable lesson of innovation and customer service. The motivation behind Orion was to solve a real-world need that most of the other companies had overlooked in favor of an unreliable manual approach. The road less traveled, where people dared to tread, but was taken in the spirit of innovation, that is Orion Governance today. Under his hard work, the team has grown to multiple millions in revenue in a short period of time. He is fluent in multiple languages including French, Hindi and English. His hobbies include aviation, traveling and having his three dogs take him on daily walks.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/ramesh-shurma/
Unternehmen stellen sich die Frage: Wie stehen wir zu Daten? Wie prägen sie unsere Entscheidungen und Prozesse? Die Data Culture eines Unternehmens umfasst datenbezogene Werte und Verhaltensweisen. Um eine erfolgreiche Transformation der Data Culture zu erreichen, muss zunächst die aktuelle Kultur des Unternehmens erfasst und die unternehmensspezifische Zielkultur bestimmt werden. Wir berichten über unser Best-Practice-Framework und welche Blueprints Unternehmen nutzen können, um ihre spezifische Datenkultur zu transformieren und zu stärken.
Zielpublikum: CDO, CIO, Verantwortliche Data & Analytics
Voraussetzungen: Data Culture, Data Strategy, Unternehmenskultur, OE
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Jedes Unternehmen hat eine Data Culture, auch wenn es sich bisher nicht bewusst damit beschäftigt hat. Unser Framework spiegelt unsere Erfahrungswerte und Kundenerfahrungen wider, wie die Data Culture eines Unternehmens systematisch aufgearbeitet und transformiert werden kann.
Die grundlegende Ausrichtung der Data Culture basiert auf den Leitplanken von Unternehmensstrategie und -kultur und muss die Frage beantworten: Was bedeutet für das eigene Unternehmen 'Data-Driven'? Unsere Blueprints helfen zu identifizieren, welche Data Culture passt zur eigenen Organisation, welche nicht.
Faktoren wie Data Leadership, Data Democracy, Data Governance oder Data Literacy können als Beschleuniger fungieren, wenn sie richtig etabliert werden. Unternehmen, die ihre eigenen Lücken identifizieren und die Abhängigkeiten der Faktoren untereinander in ihrer spezifischen Organisation adressieren, können schnelle Fortschritte erzielen. Maßnahmen müssen auf Menschen und Organisation maßgeschneidert sein, wie jedes erfolgreiche Transformationsunterfangen. Wir berichten von unseren Praxiserfahrungen mit Stolpersteinen und Success Stories bei der Transformation zur Data Driven Company.
Management Consultant
Laura Leester beschäftigt sich bereits in ihrer Masterthesis an der Technischen Hochschule Mittelhessen in Digital Business mit dem Thema und Handlungsmöglichkeiten von Data Culture. Sie führt dies bei INFOMOTION als Management Consultant mit einem Themenschwerpunkt auf Data Culture und Change Management fort, um Kunden zu unterstützen, sich zu einer Data Performing Enterprise zu entwickeln.
Dr. Sven Liepertz ist seit über 10 Jahren in Wissenschaft und Wirtschaft aktiv, um aus Daten neue Erkenntnisse und fundierte Handlungsempfehlungen zu gewinnen. Dabei unterstützt er bei INFOMOTION als Senior Management Consultant Kunden bei der Weiterentwicklung von Data & Analytics-Strategien zur Steigerung der Data Performance des Unternehmens.
Der Modern Data Stack hat die letzten Jahre deutlich an Popularität gewonnen. Wie schlagen sich etablierte Best-of-Suite-Anbieter im Vergleich? Die Vielfalt an Ansätzen für Data & Analytics Cloud-Architekturen wächst und gewinnt an Dynamik. Nach dem Fail-Fast-Ansatz müssen Komponenten ihren Wert beweisen oder werden ausgetauscht.
In dem Vortrag wird der Frage nachgegangen, was die Stärken einer 'Best of Breed'-Architektur im Sinne des Modern Data Stack sind und wann integrierte Lösungsanbieter wie z. B. SAP die Nase vorn haben.
Zielpublikum: CDO, CIO, Verantwortliche Data & Analytics, Datenarchitekt:innen
Voraussetzungen: Grundwissen Data & Analytics in der Cloud von Vorteil
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Der Modern Data Stack ist kein klar abgegrenzter Begriff. Jedoch kann dieser als ein Gegenentwurf zu den großen etablierten Anbietern verstanden werden, welche alles aus einer Hand anbieten.
Neue Entwicklungen in der Cloud, ein agiles Mindset und der hohe Bedarf von zunehmend datengetriebenen Unternehmen an neuen analytischen Fähigkeiten treiben den Markt zu neuen Funktionen und dem optimalen Fit auf die Unternehmensstrategie. Die großen Anbieter wie SAP, Microsoft oder AWS jedoch bieten ein weitgehendes Komplettangebot für Data & Analytics, ermöglichen eine hohe Interoperabilität ihrer Komponenten und sind oft in den Unternehmen schon etabliert.
Die hohe Dynamik bei aktuellen Cloudangeboten erschwert ein klares Bild der Vor- und Nachteile der unterschiedlichen Ansätze. Der Vortrag wirft den Blick auf die wesentlichen Punkte und gibt Orientierung zu typischen Fragestellungen.
Peter Baumann ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er verfügt als Führungskraft, Berater und Projektleiter über rund 18 Jahre Erfahrung mit den verschiedensten Technologien und Anbietern. Seit seinem Einstieg bei Infomotion in 2021 als Berater für Data & Analytics Strategy unterstützt er seine Kunden, Konzepte und Vorgehensweisen zu entwickeln, um Technologien zur Nutzung von Daten wertschöpfend einzusetzen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/peter-baumann/
Jonas Holthuysen unterstützt seine Kunden auf dem Weg zur datengetriebenen Organisation in verschiedenen Rollen. Er greift in umfangreichen, internationalen Implementierungsprojekten als Architekt, Projekt- und Teamleiter auf langjährige SAP-Erfahrung zurück. Dieses Know-how nutzt er zunehmend zur technologieunabhängigen Architektur- und Strategieberatung im Kontext Data & Analytics, sodass Organisationen den größtmöglichen Mehrwert aus Daten ziehen können.
Mit Blick auf die zunehmende Durchdringung von AI in den Geschäftsmodellen, regulatorischen Anforderungen wie dem EU-AI-Act und fehlendem Vertrauen der Kunden in AI stellt sich die Frage, wie Unternehmen dem gerecht werden. Welche Herausforderungen stellen sich bei der Umsetzung? Was heißt das für Modelle, Datenerhebung und Datenvorbereitung? Wir geben einen Einblick in das Thema Responsible AI, erläutern Herausforderungen und geben konkrete Ansätze für die Umsetzung anhand praktischer (Daten-)Beispiele.
Zielpublikum: Data Science und AI Praktizierende und Verantwortliche, Complianceverantwortliche, C-Level, Management, Datenmanagement, Data Governance Verantwortliche, Innovationsfördernde
Voraussetzungen: Basisverständnis von Künstlicher Intelligenz bzw. Machine Learning
Schwierigkeitsgrad: Einsteiger
Der studierte Wirtschafts- und Organisationswissenschaftler (M.Sc.) Ronny Kant fördert seit über 7 Jahren die digitale Transformation - sowohl organisatorisch als auch technisch bei unterschiedlich großen Kunden. In seiner Rolle als Manager und Projektleiter beschäftigt er sich mit regulatorischen Anforderungen, Data Science, Data Governance sowie Organisationsentwicklung und verantwortet aktuell ein Team von über 20 Experten:innen in den Bereichen Data Science, BI und Data Management.
Marc-Nicolas Glöckner ist seit neun Jahren für die PPI AG als Berater im Bereich Banking tätig. Als Senior Manager berät er seine Kunden vornehmlich in den Bereichen statistische Modellierung und KI. Fachliche Schwerpunkte sind dabei vor allem Kreditrisiko und Fraud Detection. Vor kurzem hat er eine Artikelserie zum Thema Explainable AI veröffentlicht.
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/dirk.lerner
Wie können immer wiederkehrende Aufgaben vereinfacht werden? Die Frage nach der Automatisierung von Datenlogistikprozessen in einem Data Warehouse beschäftigt heute die Projektteams. Der Wunsch nach einem umfassenden Automatisierungsprodukt ist dann meist sehr schnell da. Die Erwartungen sind hoch, die Enttäuschung (nach der Produktauswahl) nicht selten.
In dieser Session gibt Dirk Lerner einen Einblick in die Erwartungen der Projektteams, die Abläufe der Produktauswahl und die Realität.
Zielpublikum: Projektleiter:innen, Data Management Expert:innen, Data Engineers, Entscheider:innen, Produktauswahl-Teams
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Nicht wenige Data Warehouse (Data Solution)-Projektteams denken heute über die Automatisierung ihrer Datenlogistikprozesse nach. Wie kann man die immer gleichen Aufgaben vereinfachen, diese Prozesse einem Automatismus überlassen und dabei möglichst wenig wiederkehrenden Aufwand in die Entwicklung stecken? Der Wunsch nach einem umfassenden Automatisierungsprodukt für die Datenlösung kommt dann meist sehr schnell auf.
Mittlerweile gibt es viele solcher Produkte auf dem Markt: Etablierte, Newcomer und Eigenentwicklungen. Die Projektteams haben die Qual der Wahl. Und erleben nicht selten (nach der Produktauswahl) eine Enttäuschung.
In dieser Session gibt Dirk Lerner einen Einblick in die Erwartungen der Projektteams, die Abläufe der Produktauswahl und die Realität.
Dieser Vortrag enthält weder eine Empfehlung für ein bestimmtes Produkt noch wird es vom Referenten erwähnt oder bewertet!
Dirk Lerner ist ein unabhängiger und erfahrener Berater und Coach. Mit mehr als zwei Jahrzehnten Erfahrung in BI-Projekten ist er ein ausgewiesener Experte für BI-Architekturen, Datenmodellierung und temporale Daten. Dirk setzt sich für flexible, schlanke und leicht erweiterbare Data Warehouse-Architekturen ein.
Im Rahmen der TEDAMOH Academy coacht und trainiert Dirk in den Bereichen temporale Daten, Datenmodellierungszertifizierung, Datenmodellierung im Allgemeinen und Data Vault im Besonderen.
Als Pionier für Data Vault und FCO-IM in Deutschland hat er zahlreiche Publikationen veröffentlicht und ist ein hochgeschätzter internationaler Sprecher auf Konferenzen. Er ist Autor des Blogs https://tedamoh.com/blog.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/dirk-lerner/
Um datenorientiert agieren zu können, hat die Volksbank Wien vor, die komplexe Datenlandschaft zu vereinfachen und verständlich zu machen. Die organisatorische Struktur wird an die aktuellen Herausforderungen angepasst. Dazu werden 2 miteinander agierende Metadatenwelten erstellt, um das Fachdaten- und Datenqualitätsmanagement bestmöglich abwickeln zu können. Für die Bank ist es notwendig, eine Data Governance-Policy, Data Governance-Richtlinien, eine Datenstrategie und ein neues Fachdatenmodell zu erstellen sowie die kritischen Daten zu erheben.
Zielpublikum: Data Manager, Projektleiter:innen
Voraussetzungen: Grundkenntnisse Data Governance und Datenmanagement
Schwierigkeitsgrad: Einsteiger
Raluca Heigl, geboren in Sibiu/Rumänien, absolvierte ihr Wirtschaftsstudium in Bukarest, Abschluss im Jahr 2001.
2014 ergänzte sie die akademische Ausbildung mit Master of Business Administration Corporate Governance und Management an der Donau Uni Krems.
Berufliche Erfahrungen sammelte sie bei Bank Austria in Bukarest und Wien, 6 Jahre in Operation, hievon 3 Jahre in einer leitenden Position.
Seit 2007 ist sie im Volksbankensektor tätig: die ersten 10 Jahre in Organisation/IT und seit 2017 im Bereich Data Governance & Data Management, zuerst als Abteilungsleiterin und seit 2022 als Stabstellenleiterin und CDO.
Rosemarie Reisner, geboren in Mistelbach/Österreich, absolvierte 1997 ihr Betriebsinformatikstudium an der Universität Wien. Sie ist Certified Data Excellence Professional und Certified Controllerin.
In 25 Jahren Volksbank sammelte sie berufliche Erfahrungen in der Organisation, zuständig für E-Commerce und IBM Notes (3 Jahre in leitender Funktion), im Controlling für Projektcontrolling und in der Finanzdatensteuerung als Expertin Data Governance.
Vortrag Teilen
Der Aufbau einer fachlich individuellen und durchgängig integrierten Systemlandschaft ermöglicht den fachbereichsübergreifenden Nutzern die volle Ausschöpfung des mehrstufigen Prognosepotenzials - alles in einer zukunftssicheren Umgebung.
Zielpublikum: Dateningenieur:innen, Datenwissenschaftler:innen, Projektleiter:innen, Entscheidungsträger:innen
Voraussetzungen: Grundkenntnisse in Maschinellem Lernen, Erfahrung in der Nebenkostenabwicklung
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die vollintegrierte State of the Art-Prognosesystemlandschaft setzt sich aus drei Komponenten zusammen. IBM Planning Analytics auf der Basis von TM1 bildet dabei den Kern des Microservices orientierten Eco-Systems. Die Machine-Learning-Umgebung wird durch den Einsatz zeitgemäßer Containerisierung ermöglicht, sodass dem Team zu jedem Zeitpunkt im Projekt der Zugang zu allen benötigten Data-Science-Werkzeugen, Python-Bibliotheken, Jupyter-Notebooks und Daten bereitsteht. Abschließend fungiert der IBM Planning Analytics-Workspace als webbasierter Zugang zur maßgeschneiderten Lösungen.
Als Head of Consulting der Business Intelligence und Data Analytics Beratung GMC² leitet Achim Bieroth erfolgreich das Projektgeschäft.
Seit über 25 Jahren ist er für seine Kunden von Mittelstand bis Konzern beratend tätig. Gemeinsam mit seinem erfahrenen, interdisziplinären Team entwickelt er optimale BI-Strategien und findet passgenaue, innovative Lösungen.
Besonders schätzt er eine vertrauensvolle Zusammenarbeit auf Augenhöhe - stets mit dem Ziel, seine Kunden noch erfolgreicher zu machen.
Wilhelm Becker ist als Senior Advisor im Nebenkosten-Team einer Immobilientochter der Deutschen Post AG tätig. Mit hoher Professionalität und Expertise ist er verantwortlich für die Vorhersage und Projektion der Nebenkosten aller Liegenschaften in Deutschland sowie für die Kostenanalyse von Neuobjekten. Leidenschaftlich widmet er sich der kontinuierlichen Verbesserung und Dynamisierung bestehender Prozesse durch gezielte Weiterentwicklung der aktuellen Datenlandschaft.
Alexander Gusser ist als Lead Expert Innovation & Technology für Business Intelligence und Data Analytics Projekte bei GMC² verantwortlich. Seine Faszination für innovative Technologien treibt ihn dazu an, diese gekonnt miteinander zu kombinieren und auf kreative, experimentelle Art neue Lösungsansätze für fachliche und technologische Herausforderungen zu entwickeln. Besonders reizt ihn das Spannungsfeld zwischen der Entwicklung eines ganzheitlichen Lösungskonzepts und der hands-on Umsetzung, sowie dem tatsächlichen Go-live.
Vortrag Teilen
Die Verantwortung und das Wissen über Daten und deren Analyse liegt im Fachbereich. Diese fachlichen Mitarbeiter benötigen mehr Möglichkeiten, um erweiterte Analyse-Techniken, inklusive Machine Learning, mit einfach zu bedienenden Tools nutzen zu können. Wie Oracle mit der Autonomen Datenbank, als Self-Service Datenquelle und mit der Analytics Cloud, als Self-Service BI, dies verwirklichen kann wird im Vortrag anhand einer anschaulichen Live-Demo gezeigt.
Als Diplom-Wirtschaftinformatiker beschäftig sich Detlef Schröder, seit über 25 Jahren bei Oracle, mit BI, Analytics und datengetriebenen Prozessen, rund um Data Warehouse und Big Data.
Er berät Kunden in Architektur-Fragen, hält Seminare zu Analytics, AI/Machine Learning, DWH-Technik und -Integration. Außerdem ist er Sprecher auf verschiedenen Veranstaltungen und schreibt Artikel über den praxisorientierten Einsatz von Informationstechnologie.
Have you ever wondered how a modern event analytics pipeline is different from a classical ETL setup? In this talk you will learn how to design and set up an analytics pipeline in just a few minutes, using Kafka for delivery, ksqlDB for preprocessing, and Apache Druid for real time OLAP.
Voraussetzungen: Basic knowledge of what Kafka and Data Streaming are
Hellmar Becker is a Senior Developer Advocate at Imply. He has been in the software industry for more than 20 years in various pre- and post-sales roles, with a focus on online analytics and big data. Hellmar has worked with large customers in the finance, telco and retail industries, including a full time position at ING Bank for 3 years. He lives with his family near Munich in Germany. https://blog.hellmar-becker.de
As companies undertake their digital transformation journey's, they are generating more data than ever before. Data and AI have become essential for companies to stay competitive in today's digital age. AI-powered technologies such as machine learning, natural language processing, and computer vision are helping companies to gain insights from data and make better business decisions. With the help of increasing computer power, AI algorithms can now be used to analyze vast amounts of data that businesses collect, and to identify patterns and trends that can be used to help companies achieve their business goals. Ultimately, data and AI can help businesses become more productive and efficient, while also creating better customer experience, and improved profits.
Come and join this session to learn more on how your organizations can Turn Data into Actionable Insights.
Nuno Barboza is a Senior Global Executive, and he was just appointed as Strategic Committee and Board Member at BI4ALL.
Across his 30+ year career experience, Nuno had the opportunity to lead IT strategy for startups up to Fortune 500 market leaders in medical devices, healthcare, mining, insurance, and construction sectors. This work spans US, European, and global leadership roles where him and his team supported growth across multibillion-dollar enterprises by developing and executing on complex IT strategies and large-scale transformation.
As a global corporate leader, he also has deep experience with M&As, corporate development, and board-level collaboration.
Branca Petrovic, Swiss/Croatian citizen, joined BI4ALL AG Switzerland in September 2022 and is responsible for the overall development and management of the business in Switzerland and the DACH region.
She started her professional career in the tech world decades ago. Working for international Telco and Internet Service Providers where she was responsible for the setup and technical implementation of PBX systems. Branca holds a degree in business administration and general management.
Anhand ausgewählter Use Cases soll die Entwicklung von Self-Service Data Analytics innerhalb von Siemens Energy dargestellt werden. Schwerpunkt ist die Umsetzung von datengetriebenen Projekten durch verschiedene Fachbereiche. Weiterhin wird auf die erfolgreiche Einführung neuer Projekte mit Hilfe von Hackathons eingegangen, sowie den Nutzen von internen Communities bei der Problemlösung.
Met Éireann, der nationale meteorologische Dienst Irlands, hatte eine anspruchsvolle Aufgabe: genaue Wettervorhersagen für die irische Öffentlichkeit bereitzustellen und mehrere Branchen wie Luftfahrt, Landwirtschaft, Transport und Notdienste zu unterstützen. Um dies zu erreichen, mussten sie große Datenmengen in Echtzeit verarbeiten und analysieren. In dieser Präsentation wird Actian's Datenexperte, Robert Gorsuch, zeigen, wie Met Éireann dies mit Hilfe von Actian Avalanche, der leistungsstarken Cloud-Datenplattform, erreicht hat. Durch die Nutzung von Avalanche's Geschwindigkeit und Leistungsfähigkeit konnte Met Éireann ihre Fähigkeiten zur Wettervorhersage revolutionieren und genaue und zuverlässige Informationen an die Öffentlichkeit liefern. Seien Sie dabei, um mehr über den innovativen Anwendungsfall von Met Éireann und wie Actian Ihrem Unternehmen dabei helfen kann, komplexe Datenverarbeitungsherausforderungen zu lösen und Innovationen voranzutreiben, zu erfahren.
Robert Gorsuch verfügt über mehr als 30 Jahre Erfahrung in den Bereichen IT-Architektur, Design sowie der Implementierung von Daten-Management-, Daten-Integrations- und Daten-Analyse-Softwarelösungen. Er hat mehrere Zertifizierungen in Warenwirtschaftsapplikationen, Kundenmanagementsystemen und diversen SaaS-Anwendungen erworben und verfügt über langjährige Erfahrungen in Branchen wie Produktion, Finanzen, Gesundheitswesen und Transportwesen. Sein Arbeitsschwerpunkt und seine Leidenschaft als Vertriebsingenieur bei Actian liegen in der Automatisierung und Optimierung von Geschäftsprozessen in Unternehmen.
Datenanalyse und datengesteuerte Entscheidungen nehmen in Unternehmen und Organisationen aller Art einen immer größeren Stellenwert ein. Gleichzeitig werden über Regulatorik und Kundenerwartungen immer höhere Anforderungen an Transparenz, Data Governance und Robustheit von Datenanalysen und automatisierten Entscheidungsprozessen gestellt. Metadaten sind ein Schlüssel, solche Anwendungen vertrauenswürdig und effizient aufzubauen. Aktive Metadaten machen den gesamten Fluss der Daten durch alle Systeme sichtbar. Dadurch wird der Kontext von datenbasierten Entscheidungen nicht nur im Nachhinein nachvollziehbar gemacht sondern die Entwicklung von Datenapplikationen deutlich beschleunigt. Die LBBW (Landesbank Baden-Württemberg) ist ein Beispiel dafür, wie Fachbereiche und IT in enger Kooperation eine zentrale Datenplattform und ein umfangreiches Metadatenmanagement aufbauen können. Die Bank hat ihre Datenplattform als Grundlage und zur Unterstützung einer effektiven Gesamtbanksteuerung implementiert. Dabei haben Fachbereiche und IT eng zusammengearbeitet, um die vielfältigen fachlichen Anforderungen der abhängigen Fachbereiche zu verstehen und in technische Datenflüsse zu übersetzen. Alle relevanten Datenpunkte aber auch die Abhängigkeiten und Beziehungen zwischen den verschiedenen Datenquellen und Zielsysteme wurden gemeinsam identifiziert, modelliert und dokumentiert. Eine umfassende Data Governance in Verbindung mit einem zentralen Datenqualitäts-Framework gewährleisten dabei jederzeit regulatorische Compliance und eine hohe Datenqualität.
Dr. Andreas Becks berät als Strategic Advisor bei Ab Initio Kunden rund um die Themen Automatisierung datengetriebener Entscheidungen, Datendemokratisierung und AI Governance. Seit mehr als 25 Jahren ist sein Herzensthema der kulturelle Wandel durch Daten, Informationsvisualisierung und Künstliche Intelligenz. Andreas Becks war in verschiedenen leitenden Positionen in der Kundenberatung bei Softwareunternehmen, als Business- und Lösungsarchitekt sowie im strategischen Produktmanagement und in Forschung und Entwicklung tätig. Er ist studierter Diplom-Informatiker, promovierte in Künstlicher Intelligenz an der Technischen Universität Aachen und erwarb einen MBA an der Universität St. Gallen.
Dr. Florian Sebert leitet bei der Landesbank Baden-Württemberg (LBBW) die Abteilung Datenmanagement und –architektur. In dieser Rolle verantwortet Herr Dr. Sebert neben der Data Governance und der Facharchitektur des LBBW-Konzerns die zentralen Datenintegrations- und Reportingplattformen der Bank. Zuvor war Herr Dr. Sebert zunächst bei der Beratungsgesellschaft d-fine und später bei der LBBW als Projektleiter für die Umsetzung zahlreicher Vorhaben mit Fokus auf die Themen Gesamtbanksteuerung und Financial Markets tätig. Seine Studien der Mathematik, Wirtschafts- und Finanzmathematik absolvierte er in Deutschland, England und in den USA.
Die Freenet AG betreibt seit vielen Jahren erfolgreich ein Data Warehouse im eigenen Rechenzentrum. Architektur und Technologien wurden sorgfältig ausgewählt und erfüllten die damaligen Anforderungen vollkommen. Doch was soll man tun, wenn die Quellsysteme nach und nach in die Cloud migriert werden? Allein die Kosten der regelmäßigen Datenübertragung aus der Cloud in das On-Prem-DWH lassen diese Lösung nicht mehr wirtschaftlich erscheinen.
Die Freenet AG stellt sich nun dieser Herausforderung und plant den Umzug in die Cloud. Hierbei sind nicht nur technische Herausforderungen und aktueller Vendor Lock-ins zu lösen. Es gilt auch, die Organisation von Analytics bei der Freenet AG zu überdenken.
Der Vortrag beschreibt die Strategie und das geplante Vorgehen, diesen Herausforderungen zu begegnen.
Timo Burmeister ist seit 26 Jahren in der IT-Branche zu Hause. Davon ist er seit 19 Jahre bei der Freenet AG aktiv.
Er ist AWS Certified Solutions Architect und EMCDSA Certified Data Science Associate.
Till Sander weist eine über 20-jährige Erfahrung als Manager und Lösungsarchitekt bei Technologie- und Consulting-Unternehmen auf. Als Chief Technical Officer (CTO) bringt er unter anderem seine langjährige Expertise in der Konzeption und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto consulting gmbh, die Evaluierung neuer Softwareprodukte sowie die Weiterentwicklung bestehender Service Angebote und Beratungsleistungen weiter voran.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/till-sander/
Am Beispiel der Deutschen Pfandbriefbank AG zeigen wir Ihnen, wie Sie durch das Zusammenspiel von D-QUANTUM und der Metadata API von bluetelligence einen substanziellen Mehrwert erzeugen:
Wolf Erlewein verfügt über 20 Jahre Erfahrung in einem breiten Bereich des Datenmanagements (DWH, BI, CRM, Big Data) in den unterschiedlichen Branchen (Telekommunikation, Banken und Handel). In seiner Funktion als COO der Synabi Business Solutions GmbH verantwortet er die Konzeption und Umsetzung von Metadaten- und Data-Governance-Projekten.
Alexander Ludwig sorgt als Product Owner bei bluetelligence dafür,
dass die Softwareprodukte stetig weiterentwickelt werden, um SAP-Metadaten einem breiten Nutzerkreis einfach und verständlich zur Verfügung zu stellen. Als Produktexperte steht er auch im Vertrieb Rede und Antwort und schult User*innen im Umgang mit den Tools.
Getrieben durch den enormen internationalen Wettbewerbsdruck im Online-Handel muss sich das E-Commerce-Unternehmen Otto ständig weiterentwickeln, um mit der Konkurrenz Schritt zu halten oder ihr sogar voraus zu sein.
Dies stellt große Herausforderungen an Architektur und Organisation. Data Mesh als neues Architekturparadigma adressiert diese Anforderungen und liefert hier wichtige Impulse.
In dieser Case Study gehen wir von der Pain Point Analyse des internen Think Tanks aus und betrachten ausgehend von der logischen Architektur, als Treiber der Kernkompetenzen des Data Mesh, die Probleme und Optimierungsansätze.
Inhaltlich werden wir uns auf folgende Aspekte und Praxisprobleme konzentrieren:
- Domänen-orientierte Daten und die damit verbundenen Herausforderungen
- Metadaten + Zentralisierung vs. dezentrale Orchestrierung,
- Data as a Product: Auffindbarkeit und Integration,
- auf dem Weg zur Self-serve Datenplattform
Torsten Peukert ist Lead Consultant bei der Opitz Consulting Deutschland GmbH. Er verfügt über 25 Jahre Erfahrung in der Planung und Umsetzung komplexer Digitalisierungsprojekte in unterschiedlichen Rollen und Branchen, darunter Banken, Versicherungen, Handel und Industrie.
Seine Schwerpunkte und Leidenschaften sind neben verteilten Systemen, Datenarchitekturen und Data Governance auch agile Team- und Unternehmensorganisationen. Dies ermöglicht es ihm, Unternehmen bei der Transformation zu datengetriebenen Organisationen holistisch zu unterstützen.
83 % of CEOs want their organisation to be more data driven. Sharing clear corporate goals and objectives is a start, but you will not succeed without a deeply understood, and widely shared context of the critical data that underpins these goals and objectives.
Unfortunately getting them off the ground, making them sustainable, and proving ongoing value requires targeted, strategic approaches depending on where you are in your journey.
90 % of businesses fail miserably to identify, track, and widely share the above context around their critical data.
In this session we will share leading practices for successful data governance programs from our customer and answer among other these questions:
At the end, we show you how to use Precisely Strategic Services to conduct a health check of your current data governance program that includes a gap analysis with the leading practices of the most successful data-driven organisations.
Gaston Hummel has over 20 years’ experience in enterprise software and has helped more than 50 organizations across insurance, banking, telecom and succeed in their digital transformation journey. He has led software solutions from their inception, through business case approval, development, sales enablement, successful launch, and 50 plus successful implementations across global enterprises including Santander and Telefonica and Vodafone. Today Gaston is a member of the Precisely Strategic Services Team and advises organisations how to become more data driven and the leading practices for successful data governance programs.
How we designed a model driven implementation approach to improve development effectiveness at BNP Paribas Cardif
Jiří is a highly skilled professional with 20+ years of experience in data warehousing and business intelligence. As a DWH Team Leader and Architect at BNP Paribas Cardif, he excels in decommissioning outdated systems, implementing new DWH/BI solutions, and designing model-driven methodologies. Previously, as a Senior Data Architect at BOHEMIA ENERGY, Jiří created BI solutions, managed change processes, and developed data integration strategies. With a proven track record as a Chief BI Architect at Komercni banka, he oversaw operational processes and infrastructure. Recognized for his expertise, Jiří received a Gartner award in 2010. He is a sought-after speaker, sharing insights on data warehousing, business intelligence, and ITIL processes.
Analytics spielt eine wichtige Rolle bei der digitalen Transformation der Steuer- und Zollfunktion von Siemens. Es hilft dabei, Steuer- und Zollprozesse zu optimieren, Compliance zu verbessern und Risiken zu managen. Die erfolgreiche Nutzung erfordert jedoch nicht nur technische, sondern auch kulturelle und organisatorische Anpassungen, wie die Etablierung einer datengetriebenen Kultur und die Schulung der Mitarbeiter. Der Vortrag zeigt die Analytics-Strategie von Siemens in diesem Bereich und geht auf die einzelnen Herausforderungen ein.
Zielpublikum: Data Analysts, Project Owner, Data Engineers, Mitarbeitende aus Steuer- und Zollabteilungen, Controller
Voraussetzungen: Basisverständnis von ERP-Systemen, Datenlandschaften, ETL-Prozessen, BI-Tools, Datenaffinität, Grundverständnis von Steuerprozessen von Vorteil
Schwierigkeitsgrad: Einsteiger
Rolls-Royce Power Systems has been for decades at the forefront of innovation and customer experience. The company is taking a holistic approach to data exploitation as it sets itself up for the future and transforms from a traditional engine manufacturer to a provider of integrated & sustainable solutions. Join this session with Aleksander Giece to learn how Rolls-Royce Power Systems is modernizing its data architecture to meet evolving business needs and drive new levels of performance.
Target Audience: Data Engineers, Data Scientist, Data Architects, Data and Analytics Manager, Chief Data Officer (CDOs), Chief Information Officer (CIOs), Data Analysts, Heads of Data Integration etc.
Prerequisites: Basic knowledge of data governance, analytics, especially data architecture, data warehousing and data transformation processes and understanding of these in the larger organizational context to achieve the business goals.
Level: Advanced
Aleksander Giece is a seasoned Technology professional with over 20 years of experience in the data and analytics space. He has been instrumental in consulting, architecting, and designing data processing and data storage solutions in diverse industries. In his current role as an Enterprise Data Architect at Rolls Royce Power Systems, Aleksander is laying the foundation for a more modern data architecture in a hybrid environment to create a high-performance business.
Die EU-Kommission schafft mit der KI-Verordnung und der KI-Haftungsrichtlinie einen Regelungsrahmen für den KI-Einsatz. Je nach Risikokategorie sind verschiedene Pflichten zu erfüllen; bestimmte Nutzungen werden verboten. Bei der Haftung wird teils eine Kausalität zwischen KI-Einsatz und Schaden unterstellt. Die Regulierung gilt auch für KI-Systeme, die bei Inkrafttreten bereits produktiv sind. Lernen Sie die zentralen Regelungen kennen. Welche konkreten Anforderungen an die IT ergeben sich? Welche Vorbereitungen können bereits erfolgen?
Zielpublikum: Projektleiter:innen, CDO, ML/AI Engineer, Data Scientist
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die EU-Kommission reagiert auf die wachsende Bedeutung von KI mit einem eigenen Regelungsrahmen. Im April 2021 legte sie den Entwurf der sogenannten 'KI-Verordnung' vor. KI-Systeme werden in vier Risikokategorien mit verschiedenen Pflichten unterteilt; bestimmte Nutzungen werden verboten. Ergänzend stellte die EU-Kommission im September 2022 den Entwurf der 'KI-Haftungsrichtlinie' vor. Diese beinhaltet u. a. eine Kausalitätsvermutung zwischen KI-Nutzung und Schaden und weitreichende Offenlegungspflichten.
Beide Entwürfe befinden sich aktuell in Beratung. Nach Verabschiedung erfolgt die Umsetzung in nationales Recht in maximal 24 Monaten. Unternehmen, die KI nutzen, bleibt wenig Zeit zum Handeln. Insbesondere, da die Regelungen auch für bereits produktive KI-Anwendungen gelten sollen.
Lernen Sie die zentralen Inhalte der KI-Regulierung kennen. Welche konkreten Anforderungen resultieren für den KI-Einsatz? Welche Vorbereitungen sind notwendig?
Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Unternehmen und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik, Corporate Digital Responsibility und KI.
Data Mesh ist eine dezentrale Datenarchitektur, die viele Herausforderungen zu lösen verspricht. Im World Cafè „Data Mesh“ werden provokante Thesen und Fragestellungen zu diesem Ansatz in Kleingruppen diskutiert und anschließend die Ergebnisse allen vorgestellt. Ziel ist, dass sich die Teilnehmer selbst einbringen können und gleichzeitig ein differenziertes Bild auf ausgewählte Aspekte des Data Mesh-Ansatzes erhalten.
Prof. Dr. Peter Gluchowski hat an der Ruhr-Universität Bochum Mathematik mit den Schwerpunkten Stochastik und Operations Research (Dipl.-Math. und 1. Staatsexamen Lehramt) studiert und zum Dr. rer. oec. über "Simulation störanfälliger Systeme" promoviert (1985). Es folgten die Habilitation zum Thema "Entscheidungsunterstützungssysteme und Datenbanken" (1995) an der Abteilung Wirtschaftswissenschaft der Ruhr-Universität Bochum, Lehrstuhlvertretung (1993) und Berufung auf den Lehrstuhl Wirtschaftsinformatik und Operations Research (seit 2011 Lehrstuhl für Wirtschaftsinformatik, insbesondere Business Intelligence) an der Gerhard-Mercator Universität GH Duisburg (1995).
Dr. Gero Presser ist Mitgründer und Geschäftsführer der Dataciders GmbH, einem IT-Dienstleistungsunternehmen mit Fokus auf Data & Analytics und über 500 Mitarbeitern in Deutschland. Alle Dataciders eint die Vision, dass niemand jemals wieder schlechte Entscheidungen treffen muss.
Dr. Presser hat Informatik studiert, zu Entscheidungstheorie promoviert und ist u. a. im Vorsitz des TDWI Roundtable Ruhrgebiet, Dozent an der Hochschule Hamm-Lippstadt und Organisator der Meetup-Gruppe 'Business Intelligence & Analytics Dortmund' mit über 1.400 Mitgliedern.
Er ist leidenschaftlicher Skifahrer und glücklicher Familienmensch.
Vortrag Teilen
Durch die Umstellung auf ein Event-Driven-System vor ca. 1,5 Jahren ist die Datenmenge um das Zweihundertfache gestiegen. Von ursprünglich zwanzig bis fünfunddreißig GB auf 6-7 TB pro Monat. Das bringt weitreichende Herausforderungen hinsichtlich Technologie, Organisation, aber auch in Bezug auf die Unternehmenskultur mit sich. Kommt mit auf die Daten-Reise der flaschenpost und erfahrt, warum am Ende eine Lakehouse-Lösung in Kombination mit einem Mesh-Ansatz genau die Bedürfnisse der Fachabteilungen trifft.
Zielpublikum: Entscheidungsträger:innen von Data-Projekten
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Von null auf 200: Welche Herausforderungen birgt eine Big Data Transformation?
Durch die Umstellung auf ein Event-Driven-System vor ca. eineinhalb Jahren ist die Datenmenge um das 200-Fache gestiegen. Von ursprünglich 20 bis 35 GB auf sechs - sieben TB pro Monat. Das bringt weitreichende Herausforderungen hinsichtlich Technologie, Organisation, aber auch in Bezug auf die Unternehmenskultur mit sich. Kommt mit auf die Daten-Reise der flaschenpost und erfahrt, warum am Ende eine Lakehouse-Lösung in Kombination mit einem Mesh-Ansatz genau die Bedürfnisse der Fachabteilungen trifft. Zentrale Fragen im Rahmen des Vortrags: Wie sind wir als flaschenpost vorgegangen? Welche Data-Rollen sind für eine Domäne erforderlich und was hätten wir retrospektiv anders gemacht? Außerdem klären wir, warum die Antworten in der Organisation und nicht in der Technologie zu finden sind.
Marco Lohaus verfügt über mehr als 10 Jahre Erfahrung im Bereich Business Intelligence, Data Science und Dashboarding mit besonderen Fachkenntnissen im E-Commerce.
Im Rahmen seiner Tätigkeit als BI-Leiter, Management-Berater und Architekt hat er Projekte in den Bereichen Reporting, Big Data, DWH, Digitalisierung und Data Science verantwortet.
In dem Vortrag geben wir am Beispiel eines Print-Mailings einen vollumfänglichen Einblick in unseren MLOps- und Kampagnenprozess: Von der Erstellung eines Scoring-Modells zur Auswahl der Zielgruppe, über das Deployment und die automatisierte Verwendung dieses Modells auf einer Kubernetes-Plattform, bis zur Ausspielung des Print-Mailings an die Teilnehmer und die Erfolgskontrolle zeigen wir, wie wir Marketingbudgets zielgerichtet verwenden, um Teilnehmergruppen entsprechend der Zielvorgabe zu selektieren und somit Streuverluste zu minimieren.
Zielpublikum: Data Engineer, Data Scientist
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die DeutschlandCard hat sich im Laufe der letzten 15 Jahre von einem Bonusprogramm mit dem eindeutigen Fokus auf das Punktesammeln am stationären POS unserer Partnerunternehmen zu einer Multichannel-Marketing-Plattform weiterentwickelt. Heute sind viele Vorteile der DeutschlandCard denjenigen Teilnehmern vorbehalten, die unsere digitalen Kanäle (App, Web, Newsletter) nutzen. Exklusive Online-Coupons, unser Prämienshop, vielfältige Angebote von weit über 1.000 Online-Partnern und viele weitere Benefits für die Teilnehmer sind ausschließlich digital nutzbar. Für unsere Partnerunternehmen eröffnen sich außerdem durch die Digitalisierung neue Möglichkeiten, ihre Kunden kosteneffizient, zielgerichtet und mit kurzer Vorlaufzeit zu erreichen. Aus diesen Vorteilen für unsere Teilnehmer und Partnerunternehmen resultiert das Ziel, möglichst viele 'Offline-Teilnehmer' in die digitalen Kanäle, insbesondere in die DeutschlandCard-App, zu bringen.
In unserem Vortrag wollen wir am Beispiel eines Print-Mailings mit dem Ziel Digital-Shift einen vollumfänglichen Einblick in unseren MLOps- und Kampagnenprozess geben: Von der Erstellung eines Scoring-Modells zur Auswahl der Zielgruppe, über das Deployment und die automatisierte Verwendung dieses Modells auf einer State of the Art Plattform, bis zur Ausspielung eines Print-Mailings an die Teilnehmer und die Erfolgskontrolle zeigen wir, wie wir Marketingbudgets zielgerichtet verwenden, um Teilnehmergruppen entsprechend der Zielvorgabe zu selektieren und somit Streuverluste zu minimieren.
Ein besonderes Augenmerk gilt in der Präsentation dabei einerseits der Erstellung und kontinuierlichen Optimierung des Scoring-Modells zur Identifikation der Teilnehmer mit der höchsten Wahrscheinlichkeit in die App zu konvertieren. Andererseits zeigen wir, wie wir dieses Modell deployen und auf einer hochmodernen Kubernetes-Architektur automatisiert anwenden.
Marc Flockerzi verantwortet in der Abteilung Customer Insights mit seinem Team alle programmübergreifenden Fragestellungen bezüglich Customer Journey, E-Commerce, Methodik und Infrastruktur.
Eva Schmidt leitet die Abteilung Customer Insights bei der Mulitchannel-Marketing-Plattform DeutschlandCard. Dort verantwortet sie alle Themen rund um Data & Analytics. Dies umfasst neben programmübergreifenden Themen sämtliche analytischen Fragestellungen der Partnerunternehmen und deren Weiterentwicklung im Bereich datengetriebenes CRM.
Ethische KI, aber wie?
Spätestens seit ChatGPT ist Künstliche Intelligenz (KI) massentauglich geworden. Sehr schnell wurden Rufe nach der Regulierung von solchen Anwendungen laut und die EU arbeitet an einem AI Act. Italien hat als erstes Land ChatGPT temporär verboten, unter anderem aufgrund ethischer Bedenken. Wie bei zahlreichen Technologien zuvor, folgt auf die erste euphorische Welle ein vorsichtigerer Ansatz mit Fokus auf potenzielle Gefahren und gesetzlicher Regulierung.
Die interaktive Session zeigt Risiken durch maschinelle Entscheidungen auf und bietet einen Überblick zu verschiedenen Frameworks. Im Anschluss werden Perspektiven auf Best Practices für den ethischen Einsatz von Anwendungen im KI-Umfeld geboten.
Zielpublikum: Entscheider:innen, Projektleiter:innen, Data Scientists, Entwickler:innen
Voraussetzungen: Basiswissen zu KI-Technologien
Schwierigkeitsgrad: Einsteiger
Integration architectures are the key to modern architectures in every case. It is valid for green-field project, but especially in evolving existing architectures to modern architectures. To bring legacy systems in the cloud highly decoupled systems are necessary. To do so, event-driven architectures are necessary, because decoupling can easily be achieved via events. The talk shows how an event-driven architecture can help to evolve an existing architecture to the state of the art.
Annegret is an chief software architect at codecentric AG. She has worked in software development for over 30 years. She worked in quite different roles such as product owner, programmer and architect and quite different domains such as automotive and insurance. Especially is she interested in domain driven design, microservices and everything along with it. Especially, she takes care for good and nice APIs.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/annegret-junker/
Bruno Fontoura Costa leads the integration architecture at Allianz Technology SE. Especially his team, and he is responsible for the global event bus system at Allianz. Bruno works in Software Industry for over 20 years. He is especially interested how to integrate quite different software applications in the cloud.
Vortrag Teilen
Der Weg vom Legacy ERP-System in ein SAP S/4HANA ERP-System ist gepflastert mit Herausforderungen:
Wie migriert man Archivdateien? Kann man die Daten reorganisieren? Was tun, wenn viele Legacy Systeme gemerged in ein neues System fließen sollen? Wie bekomme ich einen Post-Load-Report? Und können wir bei der Migration nicht gleich unsere Datenqualitätsprobleme lösen?
In diesem Vortrag zeigen wir Ihnen die "cimt S/4HANA Migration Factory". Unsere Lösung, um bestehende Legacy Systeme in ein zentrales S/4HANA System zusammenzuführen und zu konsolidieren. Powered by cimt, Talend & AWS
Peter-Christian Quint ist Partner und Prokurist bei der cimt ag. Er hat bereits viele Jahre als Cloud- und Softwareengineer gearbeitet und sich im letzten halben Jahrzehnt als BI-Architekt spezialisiert. Seine Kernkompetenz liegt darin, Unternehmen branchenübergreifend bei Ihren BI-Herausforderungen mit innovativen und modernen Lösungen zu unterstützen und mit seinem Team langfristig zu beraten.
Armin leitet das Solution Engineering Team EMEA bei Talend. Er hilft Kunden dabei, die Arbeit mit ihren Daten zu vereinfachen. Er verfügt über langjährige Erfahrung mit und Leidenschaft für Data Engineering und Analytics und unterstützt Kunden dabei, wirklich datengetrieben zu arbeiten und den bestmöglichen Geschäftswert aus ihren Datenbeständen zu ziehen.
Data & Analytics-Architekturen und BIA-Systeme liefern die Basis für Entscheidungen, treffen sie aber meist nicht. Insofern ist die Entscheidungsfindung selbst von hoher Bedeutung: Auch auf Basis guter Daten können unbeabsichtigt und unnötig schlechte Entscheidungen getroffen werden. Im Vortrag werden die Grundzüge der normativen Entscheidungstheorie vermittelt. Auf dieser Basis wird dargelegt, welche Fehler vielfach begangen werden und wie sich diese verhindern oder begrenzen lassen.
Zielpublikum: Entscheider:innen
Voraussetzungen: Neugier, Offenheit und grundlegende Datenkompetenz
Schwierigkeitsgrad: Einsteiger
Dr. Gero Presser ist Mitgründer und Geschäftsführer der Dataciders GmbH, einem IT-Dienstleistungsunternehmen mit Fokus auf Data & Analytics und über 500 Mitarbeitern in Deutschland. Alle Dataciders eint die Vision, dass niemand jemals wieder schlechte Entscheidungen treffen muss.
Dr. Presser hat Informatik studiert, zu Entscheidungstheorie promoviert und ist u. a. im Vorsitz des TDWI Roundtable Ruhrgebiet, Dozent an der Hochschule Hamm-Lippstadt und Organisator der Meetup-Gruppe 'Business Intelligence & Analytics Dortmund' mit über 1.400 Mitgliedern.
Er ist leidenschaftlicher Skifahrer und glücklicher Familienmensch.
Der Modern Data Stack ist in aller Munde. Aber nicht nur der Modern Data Stack, sondern auch für die Zusammenarbeit im Analytics Engineering-Team ergeben sich dadurch neue Möglichkeiten, und darüber hinaus kann die Zusammenarbeit mit dem Fachbereich auf neue Beine gestellt werden. Aber welche Tools haben sich bewährt und was sind die Einsatzzwecke? Konzentriert wird sich in dieser Session auf Visual Studio Code und sinnvolle Erweiterungen für eine optimierte Entwicklerumgebung.
Zielpublikum: Data Engineers, Analytics Engineers und DWH-Entwickler:innen
Voraussetzungen: Basiswissen dbt/Analytics Engineering
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
In diesem Vortrag werden Sie einen Einblick in die Welt des Analytics Engineering bekommen und erfahren, wie Sie Ihren Workflow optimieren und effektiver zusammenarbeiten können. Ein wichtiger Bestandteil dabei ist die Zusammenarbeit im Team. Um einen reibungslosen Workflow zu gewährleisten, ist es entscheidend, die richtigen Tools und Arbeitsumgebungen zu nutzen. Visual Studio Code bietet hierfür eine Vielzahl an Möglichkeiten. Durch die Verwendung von empfohlenen Erweiterungen kann das Analytics Engineering-Team noch effizienter zusammenarbeiten.
Unter anderem SqlDBM, dbt, Snowflake, Jira, Confluence und ChatGPT sind nun die Stars auf dem Spielfeld.
Welche Vorteile ergeben sich aus der Nutzung und Einbindung moderner Werkzeuge in die VS Code-Entwicklungsumgebung?
Können diese Werkzeuge die Produktivität steigern und den Entwicklungsprozess effizienter machen?
Darauf möchten wir in dieser Session eingehen und Antworten unter anderem anhand eines Praxisbeispiels liefern.
Neben dem unschätzbaren Methodenwissen, welches beim Analytics Engineering nicht an Bedeutung verloren hat, kommen jetzt echte Innovationen.
Wir laden alle Interessierten ein, sich unsere Ansicht und Erfahrungen anzuhören und mitzudiskutieren, wie man das Potenzial des Analytics Engineering-Teams am besten ausschöpfen kann.
Oliver Cramer ist Owner Data Provisioning bei Aquila Capital. Als Produktverantwortlicher Data Warehouse ist er für die Anleitung verschiedener Teams zuständig. Die dafür notwendigen Richtlinien und die Erstellung von Standards liegen ebenfalls in seiner Verantwortung. Sein derzeitiges Hauptthema ist das Aufbauen größerer Teams, welche im Analytics Engineering-Bereich zusammenarbeiten.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/oliver-cramer/
Florian Dindorf ist Consultant bei b.telligent. Er arbeitet seit 7 Jahren im BI-Bereich. Erst als dualer Student und Entwickler in einem Handelsunternehmen und anschließend als Berater. Der Fokus liegt dabei im BI-Backendbereich und im Data Engineering mit einer Passion für den Modern Data Stack.
This session looks at closing the loop between analytics and operations. It looks at embedding BI and machine learning models into operational business processes to guide and drive decisions and actions in everyday business operations. It looks at how to create intelligent applications, and at using AI driven automation for right-time business process optimisation and decision management.
Target Audience: Solution Architects, Business Analysts, CDOs, CDAOs, Process Specialists, Data Scientists, COOs
Prerequisites: Good understanding of BI and machine learning
Level: Advanced
Extended Abstract:
Although analytics in many organisations is well established, it is still the case that perhaps no more than 25% of employees make use of reports and dashboards from BI tools with even fewer using machine learning models or AI. There is still a long way to go if companies are to realise the promise of using ML and AI to automatically prevent problems, seize opportunities and continually optimise business processes in everyday business operations.
This session looks at how to make data-driven business work by closing the loop between analytics and operations. It looks at embedding BI and machine learning models into operational business processes to guide and drive decisions and actions in everyday business operations. It looks at how to create intelligent applications, and at using AI driven automation for right-time business process optimisation and decision management. The objective is to move towards automated, self-learning, AI-driven business operations.
• An introduction to data-driven business optimisation
• Technologies and tools for the data-driven intelligent enterprise
• Architectures and methodologies for creating the smart enterprise
• Embedding analytics and AI into operational applications and processes
• Active dynamic planning and management for continuous optimisation
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Die Modellierung von CRM-Daten mithilfe von Data Vault 2.0 ist eine typische Aufgabe in Enterprise Data Warehousing-Projekten. In diesem Beitrag stellen wir verschiedene Design Patterns aus unserer praktischen Erfahrung in diesen Projekten vor. Weiterhin gehen wir auf typische Herausforderungen mit CRM-Installationen ein und stellen unsere Best Practices in diesem Bereich vor. Der Beitrag basiert auf unseren internen Modellierungs-Empfehlungen für CRM-Systeme.
Zielpublikum: Data Vault 2.0-Anwender:innen, Data Warehouse-Entwickler:innen mit Interesse an Data Vault 2.0
Voraussetzungen: Diese Präsentation zielt auf Teilnehmer:innen mit Data Vault 2.0-Kenntnissen ab. Grundlegende CRM-Kenntnisse, insbesondere zu deren Datenmodellen, sind vorteilhaft.
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die Entitäten der Data Vault 2.0-Modellierung (Hubs, Links, Satelliten) sind klar definiert - zumindest in der Theorie. In der Praxis steckt der Teufel jedoch manchmal im Detail. Daher wollen wir mit diesem Beitrag auf die Modellierung eines typischen Quellsystems, hier CRM, eingehen und verschiedene Standard-Muster vorstellen, die auf unseren Modellierungsempfehlungen basieren. Einfache Fälle wie Stammdaten (Kontakte, Organisationen, Produkte etc.) sollten schnell abgehakt sein, jedoch werden wir genau hinschauen, was auch hier die Fallstricke sind, und entsprechend diskutieren.
Als Nächstes dran sind die nicht veränderlichen (Bewegungsdaten) Daten. Hier wird es etwas komplizierter, denn nicht veränderliche CRM-Daten existieren vermutlich nicht mal in der Theorie. In der Realität können die meisten Daten verändert werden. Die daraus resultierenden Modellierungs-Entscheidungen werden durch die Vortragenden diskutiert, auch gerne in Interaktion mit dem Publikum.
Eine weitere Art von Daten, die häufig zu finden sind, sind die Belegpositionen. Auch hier ist eigentlich alles definiert, aber was passiert, wenn in den Daten keine Positionsnummer vorhanden ist? Oder Belege und deren Positionen mit der Zeit verändert werden? Auch hier gibt es einiges zu diskutieren.
Auswahllisten werden als Referenztabellen modelliert - soweit, so einfach. Doch was ist, wenn sich die Einträge in den Auswahllisten ändern, einige gelöscht oder neue hinzugefügt werden? In einer auditfähigen Umgebung? Was, wenn die Sortierreihenfolgen, die Standardfarben und Beschreibungen für die analytische Applikation unabhängig vom Quellsystem definiert werden sollen?
Mehrere Mandanten? Check.
Hoch-performante Umrechnung von Fremdwährungen in die Eigenwährung oder jede beliebige Währung? Check. Anwendung mehrerer fachlicher Zeitlinien? Check.
Value für das Publikum? Check.
Je nach verfügbarer Zeit beenden wir den Beitrag mit einer offenen Fragerunde ('Bring your own questions').
Markus Lewandowski ist Dozent an der Hochschule Hannover und Salesforce-Berater bei Scalefree. Er hat über 4 Jahre Erfahrung in der Salesforce-Entwicklung und Administration. Da er auch ein Certified Data Vault 2.0 Practitioner (CDVP2(TM )) ist, nimmt er eine hybride Rolle als Salesforce-Spezialist und DV 2.0 Practitioner ein. Seine Hauptkompetenzen sind Salesforce-Prozessautomatisierung, Anwendungsintegration und Datenmanagement.
Michael Olschimke ist Co-Founder, Dozent und Coautor des Buches 'Building a scalable data warehouse with Data Vault 2.0'.
Er hat mehr als 20 Jahre Erfahrung in IT und konzentriert sich auf Business Intelligence-Themen wie OLAP, Dimensional Modelling und Data Mining. Er ist für eine Reihe von Kunden in den Bereichen Automobil, Versicherungen, Banken und Non-Profit tätig. Er forscht unter anderem an MPP zum Aufbau von Systemen der künstlichen Intelligenz (KI) für die Analyse unstrukturierter Daten. Michael hat einen Master of Science in Information Systems von der Santa Clara University im Silicon Valley, Kalifornien.
Vom Anforderungsmanagement zum fertigen Bericht. In diesem Vortrag werde ich anhand eines Use Case aus unserer betrieblichen Praxis erläutern, wie die Business Needs des Fachbereichs ermittelt, gesteuert und schließlich in einem fertigen Reporting zur Verfügung gestellt werden. In einem praxisorientierten Ansatz, den wir stetig weiterentwickeln, wird aus einer Anforderung moderne Wirklichkeit.
Zielpublikum: PowerBI-Entwickler:innen, Projektleiter:innen, Entscheider:innen, Controller:innen, Product Owner
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
In diesem Vortrag wird aufgezeigt, wie insbesondere
bei der Entwicklung eines neuen Reports gelingen kann.
Stefanie Kostorz ist Senior Project Managerin und auf Finanzprojekte spezialisiert. Ursprünglich als Controllerin tätig, entwickelte sie ein ausgeprägtes Verständnis für Geschäftsanforderungen und die Fähigkeit, diese in Datenanforderungen zu übersetzen. Sie ist an der Entwicklung einer völlig neuen Datenanalyselösung für die CHRIST-Gruppe beteiligt. Ihr Fokus liegt darauf, die digitale Transformation voranzutreiben. Mit ihrer Familie und Rauhaardackel Lumpi lebt sie in Menden (Sauerland).
Der Vortrag beschäftigt sich mit Good Practices für die Entwicklung von Machine Learning-Pipelines und einer praxiserprobten Architektur in der Google Cloud. Es zeigt, wie man Data-Engineering-Herausforderungen, die Erstellung von Machine Learning-Modellen und MLOps-Betriebskonzepte miteinander verbinden kann, um effiziente und skalierbare Workflows zu erstellen. Durch die Auswahl der passenden Services schafft man eine zukunftsorientierte Architekturlösung.
Zielpublikum: Data Engineer, Data Scientist, Projektleiter:innen, Cloud Engineer, Cloud Architecture
Voraussetzungen: Erfahrung in Datenmanagement und Cloud Engineering
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Der Vortrag befasst sich mit den Good Practices bei der Entwicklung von Machine Learning-Pipelines in der Google Cloud. Hierbei wird eine praxiserprobte Architektur vorgestellt, die verschiedene Services aus der Google Cloud-Landschaft nutzt. Die Schwerpunkte sind Data Engineering-Herausforderungen, die Entwicklung von Machine Learning-Modellen und die effiziente Umsetzung von MLOps-Betriebskonzepten. Prozesse, wie das Management unterschiedlicher Quelldatenformate und mögliche Datenstrukturänderungen, werden in der Architektur aufgegriffen. Der Schwerpunkt liegt auf wichtigen Pipeline-Schritten, wie Feature Engineering, Modellentwicklung und Modellbewertung, sowie dem effektiven Betrieb innerhalb der Google Cloud. Durch die Auswahl passender Services schafft man eine zukunftssichere Architekturlösung.
An Dang hat nach seinem Masterstudium in Wirtschaftsinformatik an der Hochschule der Medien in Stuttgart 2020 das Data-Science-Traineeprogramm bei der INFOMOTION angefangen. Nach erfolgreichem Abschluss konzentriert er sich auf die Umsetzung von Advanced Analytics Use Cases für Kunden und begleitet diese bis hin zur Industrialisierung. Außerdem bildet er neue Trainees und interne Mitarbeiter aus.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/an-dang/
Wir programmieren gemeinsam von der grünen Wiese aus einen vollumfänglichen Schachcomputer: Spielbrett und Figuren zeichnen, alle Regeln (inkl. Bauernumwandlung, en passant, Rochade, Fesselung, ...), lange Notation, unterschiedliche Computergegner, Taktikstufen, Zugvorausberechnung usw. Das alles mit reinem T-SQL! Dank modularem Aufbau für Anfänger und Profis gleichermaßen geeignet. Alle relevanten Programmiertechniken: Rekursion, Pivotierung, Prozeduren, Funktionen, Laufzeitoptimierungen, Indizes, Constraints, Security, Architektur, ...
Benötigt wird ein Laptop, sofern Teilnehmer aktiv mitmachen wollen.
Zielpublikum: (DB-)Entwickler:innen, Data Scientists, Data Analysts, DB Admins
Voraussetzungen: erste Kenntnisse in einem beliebigen SQL-Dialekt (wir nutzen T-SQL) sinnvoll, Schachwissen nicht notwendig. Zum Mitmachen wir folgendes benötigt: SQL-Server (ab Version 2016), Management Studio als Programmierumgebung, 500 MB Plattenspeicher, 8 GB RAM
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Modularer Aufbau mit vielen Praxisübungen. Beliebige Schwierigkeitsgrade auch parallel bedienbar. Alle Aufgaben mit Lösungen. Idealer Trainingsgrundstoff, um die Datenbankabfragesprache SQL in ihrer ganzen Tiefe zu verstehen und anzuwenden.
Bei der arelium GmbH arbeitet der Wirtschaftsinformatiker als Projektleiter, SCRUM-Master oder T-SQL-Spezialist bei der Umsetzung komplexer DB-Projekte. Seit 2003 beschäftigt Torsten Ahlemeyer sich beruflich mit DB-Optimierungsaufgaben sowie ungewöhnlichen T-SQL-Queries. Auch SSAS, SSIS, SSRS, die Migration nach Azure und natürlich auch Power BI sind in seinem Fokus. Daneben gibt der Autor von Fachbeiträgen sein Wissen auch in Schulungen, Workshops und auf IT-Konferenzen weiter.
Eingeleitet mit einem Impulsvortrag über Data Mesh diskutieren Andreas Buckenhofer und Armin Wildenberg mit weiteren eingeladenen sowie spontanen Teilnehmern im Rahmen einer offenen und interaktiven Runde im FishBowl Format über das notwendige Mindset bei der Verfolgung der Datennutzung nach dem Ansatz Data Mesh.
Wo unterscheidet sich Data Mesh von Data Ware House und Data Lake? Wie verändert sich die Sichtweise auf die Daten? Welche Veränderungen ergeben sich in der Zusammenarbeit? Sind wir bei Data Mesh bereits bei BizDevOps? Folgt auf Data as a product demnächst Data as a service? Nach den einleitenden Fragestellungen ergibt sich im Rahmen des Formats durch die dynamische Veränderung der Runde die Möglichkeit die Diskussion, um neue Aspekte und Sichtweisen zu ergänzen.
Andreas Buckenhofer arbeitet bei Mercedes-Benz Tech Innovation in Ulm als Lead Expert 'Vehicle Data Platforms'. Er verfügt über langjährige Erfahrung in der Entwicklung datenintensiver Produkte. Seine Schwerpunkte dabei sind insbesondere Datenarchitektur, Datenspeicherung, Datenintegration und Datenqualität.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/andreas-buckenhofer/
Gelernter Entwickler und seit 1984 in der IT der IKB Deutschen Industriebank AG in Düsseldorf. In den Jahren 2005-2018 als Teamleiter und Direktor zuständig für Entwicklung des Kreditsystems KreDa der Bank. Die Basis der Anwendung sind ORACLE DB, ORACLE FORMS und Reports sowie seit 2013 ORACLE ADF. Der aktuelle persönliche Schwerpunkt liegt auf Themen der Strategie und Innovation sowie insbesondere der agilen Methoden. Seit 2019 im Fachbereich im Competence Center Kredit. Über die Development Community ergaben sich die ersten Berührungspunkte mit der DOAG und war seit Gründung und bis 2020 Mitglied im DOAG-Anwenderbeirat.
In den letzten Jahren hat er sich neben Vorträgen auf der DOAG K+A und der Arbeit im Anwenderbeirat auch im Arbeitskreis Strategie der DOAG und im Arbeitskreis Nachwuchsförderung in Verbindung mit der #nextgen engagiert. Über diese Aktivitäten ist sein Interesse an der DOAG weiter gestiegen und hat seit 2020 die Möglichkeit als Vorstand der Data Analytics Community die Entwicklung der DOAG mitzugestalten.
Seit Juni 2020 im Vorruhestand und seitdem auch zeitweise als Trainer für Innodrei tätig.
Vortrag Teilen
Data in motion itself requires a rethinking of how to handle data and what an IT architecture should look like. This opens new ways of analyzing data in near real-time. We’ll have a look at the possibilities of data analytics in motion.
Prerequisites: none
Level: Basic
Dr. Nadine Schoene: Technical generalist covering the whole data-value-chain (data storage and access, data engineering, data science, MLOps, Trusted AI) for batch as well as real-time data. Curious problem solver with an interdisciplinary and structured approach. Team builder that makes things happen.
Driven by continuous learning and research and passionate about passing on the results. Loves to speak to all kinds of audiences (technical experts, C-level, business, as well as students).
In nur 20 Minuten können Sie eine hochmoderne Datenplattform einrichten, die Business Intelligence und Datenmanagement vereinfacht. Verwenden Sie eine attraktive Drag & Drop-Schnittstelle, um Ihre Analysen effizienter und einfacher zu gestalten, ohne dass Programmierkenntnisse erforderlich sind! Die Erstellung aller notwendigen Tabellen, Felder, Strukturen und Pipelines wird automatisiert, während Governance, Orchestrierung und Dokumentation im Hintergrund sichergestellt werden, wobei optimierter Code generiert wird. Lassen Sie TimeXtender – den Vorreiter für automatisierte Datenplattformen – Ihnen zeigen, wie Sie sich von hochspezialisierten Aufgaben bei der Informationsverwaltung befreien können, damit Ihre Arbeit einfacher und schneller wird!
Frank Wagner ist ein erfahrener Analytics-Experte, der seit über 15 Jahren Unternehmen dabei unterstützt, erfolgreicher im Bereich Business Intelligence und optimaler Datenverwaltung zu sein. Als Berater, Solution Specialist und Trainer bringt er sein umfassendes Wissen und seine Begeisterung für das Thema in jedes Projekt ein. In seiner aktuellen Rolle als TimeXtender-Solution Specialist treibt Frank die Entwicklung moderner Cloud-First-Datenarchitekturen voran und ist begeistert von intelligenter Automatisierung und extrem schnellen Implementierungsgeschwindigkeiten. Sein Mantra lautet: "Datenmanagement ist keine Raketenwissenschaft!"
Die Reise hin zum datengesteuerten Unternehmen geht über die reine Analyse von Daten hinaus. Viele Datenprojekte bringen nicht den geplanten Erfolg und Nutzen. Auch wenn das Projekt erfolgreich abgeschlossen wurde, die Ergebnisse den ursprünglichen Business Case bestätigen, haben Unternehmen Schwierigkeiten, die Ergebnisse zu nutzen. Die Befähigung der Mitarbeiter und Change Management in Datenprojekten werden oft vernachlässigt. In diesem Vortrag beleuchten wir, wie Data Storytelling helfen kann, Datenprojekte nachhaltig erfolgreich zu machen.
Zielpublikum: Data Analysts, Data Scientists, Projektmanager:innen, CDOs
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Karen Mindermann ist Director im Bereich Data & Analytics bei Slalom. Sie verfügt über mehr als 15 Jahre Beratungs- und Führungserfahrung im Bereich Data & Analytics. Ihr Beratungsschwerpunkt liegt auf Datenstrategie, Datenmanagement und der Einführung von datengetriebenen Use Cases. Sie hilft ihren Kunden dabei, Mehrwert aus ihren Daten zu generieren und ungenutztes Potenzial auszuschöpfen.
Dbt hat sich als das ELT-Tool der Wahl des Modern Data Stack etabliert und erfreut sich immer größerer Beliebtheit. Das Tool ist Code-basiert und kann für SQL basierte ELT-Prozesse zur Transformation von Daten genutzt werden. Da es sich häufig noch nicht im produktiven Einsatz befindet, aber von vielen als mögliches Tool geprüft wird, wollen wir unsere Erfahrungen teilen, um den Einstieg zu erleichtern. Wir stellen dbt in diesem Vortrag praktisch vor, zeigen, wie es sich in der Nutzung anfühlt, und berichten über unsere Projekterfahrungen.
Zielpublikum: Data Engineers, Architekt:innen
Voraussetzungen: Grundkenntnisse in SQL und ELT-Prozessen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Dbt hat sich als das ELT-Tool der Wahl des Modern Data Stack etabliert und erfreut sich immer größerer Beliebtheit. Das Tool ist Code-basiert und kann für SQL basierte ELT-Prozesse zur Transformation von Daten genutzt werden. Da es sich häufig noch nicht im produktiven Einsatz befindet, aber von vielen als mögliches Tool geprüft wird, wollen wir Erfahrungen aus unseren Projekten teilen, um den Einstieg zu erleichtern. Wir stellen dbt in diesem Vortrag praktisch vor, zeigen, wie es sich in der Nutzung anfühlt, und berichten über unsere praktischen Erfahrungen aus verschiedenen Projekten.
Dabei gehen wir im Laufe des Vortrages u. a. auf die folgenden Themen ein:
- Dbt - Was ist das überhaupt? Installation und Einbettung in den Modern Data Stack.
- Dbt - Projektaufbau und erste Schritte. Was darf man von Anfang an beachten?
- Dbt - Automatisierung und Templating. Wie kann dbt das Coden erleichtern?
- Dbt - Packages. Wie können die Erweiterungen helfen?
- Dbt - Data Vault mit dbt.
- Dbt - run. Wie können dbt jobs ausgeführt werden und wie helfen einem Tags dabei?
- Dbt - Tests. Wie können ELT-Prozesse mit dbt getestet werden?
- Dbt - Einbindung in CI/CD. Deployment und Orchestrierung in Pipelines.
- Dbt - Was geht noch? Python zur Transformation und Definition von Metriken.
Am Ende des Vortrags freuen wir uns auf eine rege Diskussion und einen Austausch: Was sind Ihre Erfahrungen mit dbt?
Dr. Jens Bleiholder beschäftigt sich seit über 15 Jahren mit verschiedenen Themen aus den Bereichen Informationsintegration und Datenqualität. Er hat mehrere Jahre Erfahrung im Projektgeschäft bei Konzeption und Aufbau von Data Warehouses und Analytics-Lösungen gesammelt und arbeitet im Bereich Corporate Development der OPITZ CONSULTING Deutschland GmbH. Dort kümmert er sich schwerpunktmäßig um alle Themen, die etwas mit Daten zu tun haben.
Seit über einem Jahrzehnt berät Sven Röhl in Analytics-Projekten. In dieser Zeit konzeptionierte, entwickelte und betreute er unterschiedlichste DWH-Lösungen - vom On-Prem-BI-System bis hin zur Cloud-only-Analytics-Lösung. Aktuell liegt sein Hauptaugenmerk im Bereich Datenstrategie und Cloud-Architekturen im Analytics-Bereich.
Governance im Data Mesh ist föderal und soll möglichst automatisiert sein. Eine Gruppe mit Expert:innen und Repräsentanten der Teams entscheidet über die Spielregeln im Data Mesh, bspw. zu Interoperabilität oder Security, mittels globaler Policies, die von der Plattform automatisiert werden. Aber wie genau soll das funktionieren? Wir stellen ein Governance-Betriebsmodell vor, basierend auf dem Ansatz von Architecture Decision Records. Wir diskutieren Beispiele globaler Policies, und wie diese automatisiert werden können.
Zielpublikum: Data Architects, Entscheider:innen, Data Mesh Adopters, Data Governance Expert:innen
Voraussetzungen: Grundkenntnisse in Data Mesh. Kenntnisse in Data Governance sind hilfreich, aber nicht erforderlich.
Schwierigkeitsgrad: Einsteiger
Dr. Simon Harrer ist Senior Consultant bei INNOQ. Er ist Softwareentwickler im Herzen, der sich mittlerweile der dunklen Seite, nämlich der Welt der Daten, zugewandt hat. Er hat datamesh-architecture.com mit ins Leben gerufen und das Data-Mesh-Buch von Zhamak Dehghani ins Deutsche übersetzt. Aktuell entwickelt er ein für alle Data-Mesh-Initiativen hilfreiches Werkzeug, den Data Mesh Manager.
Natürlich ist Künstliche Intelligenz nicht das Allheilmittel, um aus den aktuellen Problemen zu führen. Aber je besser die Produktion, desto besser die Wirtschaftlichkeit und die Standortsicherheit.
In diesem Vortrag werden Praxisbeispiele im Kontext Industrie 4.0 aufgezeigt, wie Energie mittels KI gespart wird, wie Ausschuss reduziert wird und wie Maschineneffizienz gesteigert wird.
Zielpublikum: Verantwortliche in der Produktion, bspw. Qualitätsmanager:innen, Energiemanager:innen, Instandhaltungsleiter:innen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Britta Hilt beschäftigt sich seit gut 10 Jahren mit der Anwenderseite von Künstlicher Intelligenz, hauptsächlich im produzierenden Gewerbe. Sie ist Mitbegründerin und Geschäftsführerin der KI-Firma IS Predict, die sich durch ihre Automatisierung von Data Science und erklärende KI für Industrie 4.0 einen Namen gemacht hat.
Welche KI benötige ich, und wenn ja, wie viele? Die Erfolge von Chat GPT und ähnliche Machine Learning Modelle lassen anderes vermuten, aber erfolgreiche digitale Assistenten beruhen nicht allein nur auf der Wahl der richtigen Künstlichen Intelligenz (KI). Die Entwicklung digitaler Assistenten ist ein Strategiespiel, besonders wenn das Entwickler Team den Umgang mit Sprache als Medium innerhalb der Anwendung nicht gewohnt ist. Gerade am Anfang eines Projektes gibt es eine Menge von Fragen zu klären die über den Rahmen der KI hinausgehen. Zu diesen Fragen gehört unter anderem die Anbindung der KI an Backend-Systeme wie Datenbanken, sowie die Definition von Erfolgsfaktoren. Und das ist dann auch nur die Spitze des Eisberges. Basierend auf die mehrjährige Erfahrung eines ganzen Teams bei Oracle, betrachtet dieser Vortrag die Entwicklung von digitalen Assistenten ganzheitlich; für jeden verständlich und ohne mathematische Formeln. Das Ziel ist es einen Wissens-Vorsprung zu vermitteln, der zukünftige Projekte schneller (und) erfolgreich macht. Sämtliche Beispiele basieren auf den Oracle Digital Assistant, können aber problemlos auf andere Technologien übersetzt werden.
Seit mehr als 25 Jahren arbeitet Frank Nimphius für das Oracle US Produkt Management vornehmlich im Bereich der Anwendungsentwicklung. Im Jahr 2014 bekam er den Auftrag für einen Kunden im Rahmen einer Design-Kooperation einen ersten Chatbot basierend auf bestehenden Technologien zu entwickeln. Seit dieser Zeit beschäftigt sich Frank mit digitalen Assistenten und Künstlicher Intelligenz in der Konversation innerhalb des Oracle Digital Assistant Produkt Management. Als Produkt Manager vertritt er das Oracle Product Engineering auf Konferenzen, entwickelt und leitet Trainings, schreibt Beispiel-Programme, unterstützt Kunden und Partner bei der Implementierung von Oracle Digital Assistant basierten Lösungen, und trägt zur Weiterentwicklung der Oracle Digital Assistant Plattform bei. In seinem derzeitigen Projekt ist er an der Entwicklung digitaler Assistenz-Lösungen für das Oracle eigene Produkt Portfolio beteiligt.
We will learn about the latest MLOPs strategies and how to approach application deployment for production using various cloud-native technologies.
We will illustrate how the infrastructure, model and pipeline templates built by Data Reply reduce the time needed to get a QA application into production, allowing manufacturers to reap the significant benefits these machine learning applications can offer.
Emiliano Tomaselli is a seasoned Solution Architect with over 15 years of IT experience. He specializes in delivering MLOps projects, bringing machine learning solutions into production using various methodologies and technology stacks.
With his deep understanding of technology, his passion for innovation, Emiliano can provide practical guidance on implementing MLOps solutions, emphasizing the importance of aligning machine learning projects with business objectives.
Digital transformation forces companies to consider data an asset, making new business models or processes possible. Fast-changing markets lead to fast-changing business requirements. What delivers value today will not necessarily have value tomorrow.
That is why data transformation is so significant: it should transform data into a desired format with business value today and tomorrow.
Organizations lost control over data delivery:
Some progress has been made in recent years, but it is not nearly enough. We need to raise the bar for data transformation seriously.
Learn how automated data transformation and abstract ETL will become the next industry standard in data transformation.
Toni Mata is the VP of Technology at VaultSpeed.
For more than 20 years, Data has been the cornerstone of his career in various roles and industries like banking, insurance, healthcare, and public services before joining VaultSpeed.
This background allows him to support customers in designing their information architecture using a business-oriented, data-driven approach.
Obwohl Unternehmen viel in Tools, Technologien, Prozesse und Ausbildung ihrer Mitarbeitenden investieren, wird der volle Wert von Daten & Analytics oft nicht ausgereizt.
In meinen 20 Jahren Erfahrung im Bereich 'Reporting, BI und Analytics' bin ich zum Schluss gekommen, dass der weiche Faktor 'Mensch' dabei eine entscheidende Rolle spielt.
Anhand von einigen 'typischen' Themen möchte ich, mit einem Augenzwinkern, einen Realität-Check vornehmen und mögliche Auswege aus der bestehenden Diskrepanz aufzeigen.
Zielpublikum: Alle Interessierten
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Es werden verschiedene Topics (u. a. anhand von Personas) dem Realitäts-Check unterzogen:
- Analytics-Architektur / Datenarchitektur
- Data Scientist / Data Engineer
- Analytics Manager
- Self-Service / Datenmodellierung
- Consultants / Mitarbeitende bei einem Tool-Hersteller
und last but not least: der Nutzer/die Nutzerin von Analytics im Unternehmen
seit Juli 2019: Enterprise-Architekt Analytics bei der SBB
2017 - 2019: Lead-Architekt Analytics bei MGB (Migros Genossenschaftsbund)
2014 - 2017: Senior Business Intelligence Consultant bei IT-Logix
2010 - 2014: Gesamtverantwortlicher DWH beim ASTRA (Bundesamt für Strassen)
2005 - 2008: Gesamtverantwortlicher EDWH bei PostFinance
1998 - 2004: Leiter BICC bei Swisscom Mobile
Stell Dir vor, Du könntest Deine Datenplattform ohne Widerstand beladen, Rohdaten aus heterogenen Quellen einfach sicher persistieren, Schema Drift wäre auch kein Problem und eine automatische Historisierung inclusive. All das ohne eine Zeile Code, rein durch Konfiguration. Als ob das nicht genug wäre, erstellst Du auf Knopfdruck eine vollständige Sandbox mit allen Daten für die weitere Entwicklung. Geht nicht? Geht doch! Wir zeigen Dir, wie die Kombination von Loading Framework, Snowflake und Datavault Builder genau das ermöglicht.
Zielpublikum: Data Engineers, Data Architects, Entscheider:innen, Solution Engineers
Voraussetzungen: Grundverständnis von Infrastruktur, Cloud Computing und Data Vault
Schwierigkeitsgrad: Fortgeschritten
Daniel works as a Cloud Data Warehouse Architect at Siemens Financial Services GmbH in Munich. He has many years of experience in data-intensive BI and analytics projects. As the lead data architect, he is responsible for the development and expansion of a new cloud data platform. His focus is on cloud architecture, data integration, data modeling, and automation.
Michael Bruckner has over 10 years of experience working in various roles and industries in the field of business intelligence, data analytics, data engineering, and data warehousing. At Siemens Financial Services, he currently leads the Data Management department within the IT department and is driving the development of an enterprise-wide, cloud-based data platform as an IT Program Manager.
Als Principal Consultant legt Meik Truschkowski den Fokus auf Business Intelligence, Data Warehousing und Integration sowie Datenmodellierung, v. a. für die produzierende Industrie und die Finanzbranche. Er verfügt über mehr als 14 Jahre Erfahrung in der Analyse, Planung, Konzeption und Umsetzung branchenübergreifender Projektvorhaben einschließlich der Prozess- und Anforderungsanalyse und ganz besonders der Architektur von Daten.
Ilja Schneider ist Senior Berater mit den Schwerpunkten Data Warehouse, Daten-Integration und Reporting. Er berät seit 18 Jahren Kunden aus verschiedenen Branchen wie z. B. Finanzwesen und verarbeitende Industrie.
Seine Projekterfahrung umfasst dabei den kompletten Wertschöpfungsprozess der Analyse, Planung, Konzeption und Umsetzung von anspruchsvollen Projektvorhaben.
Vortrag Teilen
Was kann Künstliche Intelligenz heute leisten? In diesem Vortrag zeigen wir anhand einer Vielzahl von Live-Beispielen, ob der Begriff ein überhyptes Buzzword oder die Schlüsseltechnologie der digitalen Zukunft ist. Das TNG Innovation Hacking Team arbeitet seit Jahren an zahlreichen KI-Projekten im Bereich Computer Vision und Natural Language Processing. Kommen Sie auf eine Reise durch die Welt der Künstlichen Intelligenz und deren Architektur, vorgestellt am Beispiel verschiedener Innovations-Projekte.
Zielpublikum: Entscheider:innen, Manager:innen, Entwickler:innen, IT-affine Menschen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Martin Förtsch ist ein IT-Berater der TNG Technology Consulting GmbH mit Sitz in Unterföhring bei München und studierte Informatik. Seine Arbeitsschwerpunkte sind Agile Development (hauptsächlich) in Java, Suchmaschinentechnologien, Information Retrieval und Datenbanken. Als Intel Software Innovator und Intel Black Belt Software Developer ist er darüber hinaus intensiv in der Entwicklung von Open-Source-Software im Bereich der 3-D-Kameratechnologien und dem Internet of Things involviert. Darüber hinaus hält er zahlreiche Vorträge auf nationalen und internationalen Konferenzen zu den Themen Künstliche Intelligenz, Internet der Dinge, Augmented Reality und Test-Driven Development. Er wurde u. a. mit dem Oracle JavaOne Rockstar ausgezeichnet.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/martin-foertsch/
Thomas Endres arbeitet in der Rolle eines Partners als IT-Consultant für TNG Technology Consulting in München. Mit dem TNG-Innovation-Hacking-Team entwickelt er verschiedene Prototypen - darunter ein Telepräsenz-Robotik-System, verschiedene KI-Prototypen und AR/VR-Showcases. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/thomas-endres/
Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Echtzeit-Deepfakes, einer Shitposting-KI oder autonom fliegenden Minidrohnen.
Jonas studierte Informatik: Games Engineering an der TU München und beschäftigte sich dabei neben den üblichen Spieleprojekten auch intensiv mit High Performance Computing und Künstlicher Intelligenz.
Vortrag Teilen
Datenmanagement und Business Intelligence sind eng verwobene Bereiche, werden allerdings in vielen Unternehmen in separaten Teams und Abteilungen strukturiert. In diesem Vortrag wollen wir vorstellen, wie Pixum Data Warehouse Automation nutzt, um damit eine zentrale Anlaufstelle für Daten und Dashboards im Unternehmen bereitzustellen.
Zielpublikum: Entscheider:innen, IT-Architekt:innen, Data Engineers
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Datenmanagement und Business Intelligence sind eng verwobene Bereiche, werden allerdings in vielen Unternehmen in separaten Teams und Abteilungen strukturiert. Pixum wählt hier seit Jahren einen anderen Ansatz und verwaltet sowohl das Data Warehouse als auch die Business Intelligence in einem Team - dem Team 42. Um die große Komplexität einer solchen Umgebung in einem kleinen Team abbilden zu können, müssen die genutzten Tools die Mitarbeiter bestmöglich unterstützen. In diesem Vortrag wollen wir daher vorstellen, wie Pixum Data Warehouse Automation nutzt, um alle Daten-Ladeprozesse effizient zu steuern und eine zentrale Anlaufstelle für Daten und Dashboards im Unternehmen bereitzustellen. Dies unterstützt die datengetriebene Unternehmenskultur.
Christian Moke verantwortet den Bereich Finanzen und Controlling und beschäftigt sich bei Pixum seit über 11 Jahren mit dem rasant wachsenden Analysebedarf im Unternehmen. Aus der Rolle des Qlik-Anwenders sowie Entwicklers heraus hat er die effiziente Datennutzung durch gezielte Business Intelligence-Lösungen als einer der Datenpioniere bei Pixum auf ein neues Level gehoben.
Hendrik Gruß hat an der RWTH Aachen studiert und bringt sein umfangreiches Know-how als Informatik B.Sc./M.Sc. seit vier Jahren bei Pixum als Data Engineer ein.
Die Entwicklung und Einführung eines Data Governance-Programms und eines Datenkatalogs ist für jedes Unternehmen eine Umstellung. Zuständigkeiten und Verantwortung für Daten wollen explizit definiert, Prozesse eingeführt und Wert und Bedeutung von Daten sichtbar gemacht werden.
Der Vortrag beleuchtet anhand einiger Fallbeispiele, wie die verschiedenen Herausforderungen eines solchen Vorhabens gemeistert werden und sich der Fortschritt messen lässt, damit ein langfristig erfolgreiches Programm entsteht.
Zielpublikum: Projektleiter:innen, Architekt:innen, Data Management, Senior Data Engineers
Voraussetzungen: Grundkenntnisse im Datenmanagement
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Jedes Jahr wachsen die Datenbestände eines Unternehmens weiter: Die existierenden Prozesse und Arbeitsabläufe generieren Unmengen an Daten, welche aufgrund günstiger Speicherpreise immer länger und feingranularer aufbewahrt werden können, Daten aus frei zugänglichen Quellen wie Social Media oder hinzugekaufte oder mit Partnerunternehmen ausgetauschte Daten werden in immer größerem Umfang gesammelt und genutzt.
Gesammelte Daten sind aber noch keine Informationen und erst recht keine Erkenntnisse, auf deren Basis man als Unternehmen handeln könnte. Die gesammelten Daten zu managen und für verschiedenste Zwecke auffindbar und nutzbar zu machen, ist also eine zunehmend komplexere Aufgabe. Data Governance als organisatorischer Rahmen und ein Datenkatalog als technisches Tool können hier Eckpfeiler für eine effiziente Datennutzung im Unternehmen liefern.
Dieser Vortrag zeigt anhand von Best Practices und einigen Fallbeispielen aus verschiedenen Branchen, wie die verschiedenen Herausforderungen bei der Einführung sowohl von Data Governance als auch eines Datenkatalogs gemeistert werden können, damit ein langfristig erfolgreiches Programm entsteht. Außerdem betrachten wir, wie sich Erfolg von Data Governance messen lässt, um damit nicht zuletzt Investitionen in diesem Bereich zu begründen.
Uwe Westerhoff leitet seit einigen Jahren bei der saracus consulting GmbH den Bereich Data Governance und Data Science. Zusammen mit seinem Team entwickelt er für Unternehmen aus verschiedenen Branchen Data-Governance-Strategien, führt Datenkataloge ein und berät und begleitet Unternehmen bei ihrer Transformationen hin zu einem datengetriebenen Unternehmen. In der Rolle als Data Scientist kennt er aber auch die Rolle des Datennutzers, welcher Daten für seine Aufgaben im Unternehmen finden und verstehen muss.
Vor seiner Zeit bei saracus hat Herr Westerhoff einige Jahre für ein Start-up im Bereich Robotik und Computer Vision sowie in der universitären Forschung im Bereich Kern- und Elementarteilchenphysik gearbeitet.
Eine Möglichkeit, die Nachvollziehbarkeit der Entscheidungen von KI-Modellen zu erhöhen, ist Explainable AI (XAI). In unserem Vortrag geben wir eine Einführung in dieses sehr relevante und spannende Feld. Anhand eines Use-Cases zeigen wir die Wichtigkeit von XAI auf und gehen tiefer auf einige Methoden ein, die helfen können, die gestellten Anforderungen zu erfüllen. Zusätzlichen diskutieren wir den konkreten Nutzen, den XAI bringen kann, anhand einer Reihe von Beispielen aus der Praxis und geben einen Einblick, welche Bereiche besonders profitieren können.
Zielpublikum: Entscheider:innen, Data Scientists
Voraussetzungen: Grundsätzliche Kenntnis über Machine Learning-Anwendungen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Moderne KI-Algorithmen werden zunehmend komplexer und die getroffenen Vorhersagen können immer schwer nachvollzogen werden. Dies erschwert den Einsatz von KI im Allgemeinen und besonders in hochregulierten Bereichen, in denen Nachvollziehbarkeit eine große Rolle spielt (z. B. Finance und Insurance). Aktuelle Gesetzesvorhaben wie der European AI-Act verstärken dieses Problem zusätzlich, da Nachvollziehbarkeit mehr und mehr zu einer verpflichtenden Eigenschaft von KI-Modellen in vielen Bereichen wird. Eine Möglichkeit, die Nachvollziehbarkeit der Entscheidungen von KI-Modellen zu erhöhen, ist Explainable AI (XAI). In unserem Vortrag geben wir eine Einführung in dieses sehr relevante und spannende Feld. Anhand eines Use-Cases zeigen wir die Wichtigkeit von XAI auf und gehen tiefer auf einige Methoden ein, die helfen können, die gestellten Anforderungen zu erfüllen. Zusätzlichen diskutieren wir den konkreten Nutzen, den XAI bringen kann, anhand einer Reihe von Beispielen aus der Praxis und geben einen Einblick, welche Bereiche besonders profitieren können.
Andreas Gillhuber ist seit 2017 bei der Alexander Thamm GmbH tätig und verantwortet als Managing Director und Co-CEO das operative Geschäft in den über 300 Kundenprojekten (Delivery). Er verfügt über langjährige Expertise aus komplexen IT- und Transformationsprogrammen, Restrukturierungen, Digitalisierungs- sowie Data Strategy / Engineering-Projekten. Andreas Gillhuber hat über 25 Jahre Industrie- und Konzernerfahrung und war zuvor in Geschäftsleitungs- und IT-Management-Positionen bei BMW, RWE, Nokia Siemens Networks und Siemens. Nach seinem Studium der Elektrotechnik und Informationstechnik, das er als Dipl.-Ing. an der TU München abschloss, startete er in Vertrieb und Marketing bei der IBM in USA und Deutschland.
Er ist außerdem Buchautor und Vorstandsmitglied der German Data Science Society (GDS) e.V.
Johannes Nagele hat einen wissenschaftlichen Hintergrund in Biophysik und Hirnforschung und verfügt über mehr als 10 Jahre Erfahrung in Statistik, Datenwissenschaft, maschinellem Lernen und künstlicher Intelligenz. Er kombiniert seine langjährigen praktischen Erfahrungen mit konzeptionellen Ansätzen zur Analyse komplexer Systeme.
Bei [at] leitet er den Exzellenzcluster zu erklärbarer KI.
Luca Bruder hat einen wissenschaftlichen Hintergrund in kognitiven Neurowissenschaften und kombiniert diesen mit Fachwissen in den Bereichen Reinforcement Learning und Bayes'sche Modellierung.
Bei [at] leitet er ein großes Forschungsprojekt über erklärbare KI im Bereich autonomes Fahren und Computer Vision.
Vortrag Teilen
Wie gelingen und wieso scheitern Projekte? In der Regel hören wir mehr von gescheiterten als gelungenen Projekten. Welche Faktoren machen erfolgreiche Projekte aus? Im Rahmen dieses interaktiven Vortrages werden insbesondere die Rahmenbedingungen von Projekten (z.B. Termindruck) und die Beweggründe von Projektmitgliedern in einer Erzählung aus einem "alltäglichen" Projekt beleuchtet. Über eine Retrospektive zu drei Meilensteinen des Projektes werden Parallelen zu anderen Projekten gezogen und gemeinsam mit den Teilnehmern (u.a. über mentimeter) vertieft und erweitert
Des Weiteren werden Bezüge zum Kapazitäten Management in Projektplanungen und der Problematik der Projektplanung generell hergestellt und gemeinsam mit den Teilnehmern betrachtet und erörtert. Diskutiert wird zum einen die Fragestellung: "Was alltägliche Projekte von Projekten in unseren Unternehmen unterscheidet?" sowie über das Pro und Conta von festen Terminvorgaben debattiert.
Gelernter Entwickler und seit 1984 in der IT der IKB Deutschen Industriebank AG in Düsseldorf. In den Jahren 2005-2018 als Teamleiter und Direktor zuständig für Entwicklung des Kreditsystems KreDa der Bank. Die Basis der Anwendung sind ORACLE DB, ORACLE FORMS und Reports sowie seit 2013 ORACLE ADF. Der aktuelle persönliche Schwerpunkt liegt auf Themen der Strategie und Innovation sowie insbesondere der agilen Methoden. Seit 2019 im Fachbereich im Competence Center Kredit. Über die Development Community ergaben sich die ersten Berührungspunkte mit der DOAG und war seit Gründung und bis 2020 Mitglied im DOAG-Anwenderbeirat.
In den letzten Jahren hat er sich neben Vorträgen auf der DOAG K+A und der Arbeit im Anwenderbeirat auch im Arbeitskreis Strategie der DOAG und im Arbeitskreis Nachwuchsförderung in Verbindung mit der #nextgen engagiert. Über diese Aktivitäten ist sein Interesse an der DOAG weiter gestiegen und hat seit 2020 die Möglichkeit als Vorstand der Data Analytics Community die Entwicklung der DOAG mitzugestalten.
Seit Juni 2020 im Vorruhestand und seitdem auch zeitweise als Trainer für Innodrei tätig.
Willkommen in der Ära der Demokratisierung von Unternehmensdaten! Erfahren Sie, wie „Data Democratization“ Ihre Organisation agiler, datengetriebener und innovativer macht. Bessere Entscheidungen, intensive Zusammenarbeit und eine offene, datengesteuerte Kultur – lieber heute als morgen!
Erfahren Sie in unserem Vortrag wie Ihre Daten einen Mehrwert für Ihr Unternehmen schaffen können, wenn Sie Unternehmensdaten „demokratisieren“. Doch was ist Data Democratization überhaupt? Welche Voraussetzungen sind dafür notwendig? Und welche Herausforderungen sind vorab zu lösen?
Wenn Sie sich für Data Democratization entscheiden, entscheiden Sie sich nicht nur für eine gesteigerte Mitarbeiterperformance auf allen Unternehmensebenen, sondern auch dafür sich auf den Weg zu einer einfachen und breiten Datennutzung zu begeben – jenseits von Silos!
Marco beschäftigt sich seit über 10 Jahren mit den Bereichen Data Warehousing, Data Engineering und Business Intelligence. Er kann sehr umfangreiche Erfahrungen aus den Branchen Handel, Lebensmittelindustrie und Gastronomie nachweisen. Seine Kernkompetenzen liegen in der Erstellung von Datenbanken, Bewirtschaftungsstrecken und Auswertungen.
2017 machte Jonas sich auf, auf der Kontinentaldurchquerung durch Europa und Asien seinen ersten Weltrekord auf dem Fahrrad aufzustellen.
Danach kündigte er seinen Job im Software-Vertrieb in München, wo er seit seinem International Business Studium arbeitete, und stellte in den Folgejahren weitere Weltrekorde auf den grossen Ultradistanzen Alaska-Feuerland und Nordkap-Kapstadt auf.
Im September 2020 dann, brach Jonas zu seinem bislang grössten Abenteuer auf, dem Triathlon um die Welt.“
Einmal um die Erde, in den Triathlon-Disziplinen Schwimmen, Laufen und Radfahren. Ganz auf sich allein gestellt hat Jonas Deichmann das Unmögliche möglich gemacht: Während die Welt im Lockdown verharrt, umrundet er sie, in 14 Monaten voller Grenzerfahrungen und Momenten größten Glücks. Jonas schwimmt durch die Adria, gegen tückische Strömungen und teils in der Dunkelheit, fährt mit dem Fahrrad 20.000 Kilometer von Dubrovnik bis nach Wladiwostok bei klirrender Kälte, und durchläuft Mexiko in 120 Marathons. Begleitet von Menschen, jung und alt, die sich ihm spontan anschließen, um für ein paar Kilometer Teil seines Abenteuers zu werden, und beflügelt von Millionen Fans im Netz. Am Ende steht eine unglaubliche Geschichte von Mut und Motivation.
Jonas Deichmann ist der einzige Mensch, der Radrekorde auf allen großen Kontintaldurchquerungen aufgestellt hat und die Welt im Triathlon umrundete. Er ist mehrfacher Weltrekordhalter und Bestseller-Autor.
Genieße kühle Drinks und kleine Snacks, während du wertvolle Kontakte knüpfst und den ersten Messetag revue passieren lässt!
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/michael.zimmer
Unternehmen stehen regelmäßig vor der Herausforderung, Datenorganisationen mit Business und IT erfolgreich zu organisieren. Hier stellt sich oft die Frage nach notwendigen Rollen, Werkzeugen, aber auch Vorgehen. Im Vortag wird die Datenstrategie der Zurich Deutschland kurz eingeführt, das Arbeitsmodell vorgestellt und aufgezeigt, wie sich die Zurich Deutschland in den letzten Jahren von einer DWH fokussierten Organisation zu einem datenzentrierten Unternehmen mit Lake, neuer Governance & einer KI-Serienfertigung gewandelt hat.
Zielpublikum: Von Fachbereichsmitarbeiter:innen bis zu CDOs
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Dr. Michael Zimmer ist Chief Data & AI Officer und Leiter des Kompetenzzentrum für KI in der W&W-Gruppe. Michael wird die strategische Kompetenz in der W&W-Gruppe auf diesem Gebiet ausbauen. Er hat über Agilität von Datenarchitekturen promoviert und war vor seiner Zeit bei der W&W CDO der Zurich Gruppe deutshcland und mehr als 13 Jahre in der Beratung tätig. Er ist Herausgeber und Autor diverser Bücher und unter anderem TDWI Fellow, männlicher Alliierter der Woman Leaders in Data & Analytics (WLDA) sowie Mitglied der Arbeitsgruppe Ethical AI der deutschen Aktuarsvereinigung.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/michael-zimmer/
Vortrag Teilen
In verteilten Data Mesh-Architekturen spielt die Sammlung, Anreicherung und Verteilung von Metadaten eine zentrale Rolle, um das flüssige und sichere Arbeiten an und mit Datenprodukten quer durch die Organisation und darüber hinaus zu ermöglichen. Der Vortrag gibt Einblicke in Zalandos Metadata Mesh und wie mithilfe von Metadaten über Cloud-Provider und Technologien hinweg effizient mit Daten gearbeitet werden kann.
Zielpublikum: Data Engineers, Principals, Architekt:innen, Leiter:innen, Führungskräfte
Voraussetzungen: Grundkenntnisse in Datenarchitekturen
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
In heterogenen Data Mesh-Architekturen fallen Unmengen an Metadaten an: Informationen über Schemata, Formate, Beschreibungen, Verantwortlichkeiten, Verwendung, Qualität, oder Klassifizierungen werden dezentral produziert, müssen weiterverarbeitet und weitergereicht werden, um flüssiges und sicheres Arbeiten mit Daten zu ermöglichen. Hierbei liegt ein großer Fokus auf der dezentralen Metadatenplattform, die quer über Technologien und Organisationen hinweg Metadaten integriert und bereitstellt. Dabei müssen nicht nur verteilte Datenkataloge, sondern auch diverse Tools wie z. B. zur Datenqualitätsmessung angeschlossen werden. Der Vortrag gibt Einblicke dazu in Zalandos jetzige und zukünftige Datenlandschaft.
Sebastian Herold treibt seit 5 Jahren die Entwicklung von Zalandos Datenlandschaft zu einem effizienten, skalierbaren, sicheren Data Mesh von Datenprodukten voran und arbeitet dabei eng mit den Nutzern und Cloud-Providern zusammen.
Zuvor hatte Sebastian für 7 Jahre die Datenplattform von Immobilienscout24 aufgebaut.
This talk will explore the concept of automated text anonymization powered by machine learning, a solution that can quickly and accurately protect sensitive data. The talk will cover all the necessary concepts and considerations to implement such a solution in the industry. Some of the key concepts that will be discussed include the data labeling process, training NLP models, a human-in-the-loop process to ensure privacy and monitor the performance of the ML model, and implementation of MLOPS principles.
Target Audience: ML Engineers, Data Scientists, Decision-Makers in the area of data privacy
Prerequisites: Familiarity with basic machine learning methods
Level: Advanced
Extended Abstract:
Data privacy and anonymization are important topics and will probably stay in the future. Balancing data privacy and data utilization is a crucial challenge for many organizations. On one hand, companies must protect sensitive information and comply with regulations. On the other hand, they can unlock new business insights from the text data they collect. This talk will explore the concept of automated text anonymization powered by machine learning, a solution that effectively balances both considerations by quickly and accurately protecting sensitive data while preserving its utility. The talk will cover all the necessary concepts and considerations to implement such a solution in the industry. Some of the key concepts that will be discussed include the data labeling process, training NLP models, a human-in-the-loop process to ensure privacy and monitor the performance of the ML model, and MLOPS concepts to ensure the model improves over time
Damir Kopljar is a Team Lead at Croz AI, a Ph.D. candidate in the field of explainable AI, and a passionate drone pilot.
He is always curious to learn more about complex problems and find the best solutions using data and machine learning. Currently, his efforts are concentrated on assisting clients in identifying opportunities to leverage AI and implement machine learning across various scenarios, as well as on establishing future-oriented ML factories grounded in MLOps best practices.
When he's not fixing broken drones, he enjoys mountain climbing.
Häufig kann Self-Service BI die hohen Erwartungen an Qualität und Vorbereitung nicht erfüllen, da die Reporting-Plattform den Fachanwender:innen wichtige Services nicht oder nur unzureichend anbietet. Durch Services wie CI/CD-Pipelines oder eine Testautomation werden Ressourcen freigesetzt, die Fehlerquote verringert und die Prozesse beschleunigt. Wir geben einen Überblick, welche technischen Services eine Reporting-Plattform bieten sollte, um Anwender von Self-Service zu empowern, und welche Faktoren für den Erfolg der Services entscheidend sind.
Zielpublikum: BI-Verantwortliche, IT-Leiter:innen, Data-Architekt:innen
Voraussetzungen: Grundlegendes Wissen/Erste Erfahrungen im Bereich 'Reporting'
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Self-Service Reporting/Analytics ist ein vorherrschender Trend in datengetriebenen Unternehmen, bei dem Fachbereiche befähigt werden, eigenständig Analysen und Dashboards anzufertigen.
In den letzten Jahren haben Unternehmen verstärkt in die Standardisierung des Self-Service Reportings durch Visualisierungsstandards, Templates oder Einführung eines Datenkatalogs investiert. Ebenfalls gab es eine starke Weiterentwicklung der Self-Service Reporting Tools (Power BI, SAC etc.). Dagegen haben sich die technischen Serviceangebote der Reporting-Plattform, wie CICD-Pipelines oder automatisierte Test-Frameworks, kaum weiterentwickelt.
Im Rahmen dieses Vortrags geben wir eine Übersicht über die wichtigsten Serviceleistungen für die nachhaltige Nutzung von Self-Service BI. Der Vortrag ist nicht auf ein Tool fokussiert. Wir fokussieren uns auf technische Serviceangebote, die die Erstellung des Berichts unterstützen oder diese begleiten, z. B. das Deployment, die Testung oder die Zugriffsverwaltung.
Aufbau des Vortrags:
Wir zeigen, wie Fachanwender:innen durch technische Services unterstützt werden können. Dabei differenzieren wir die Anforderungsbereiche Qualitätsmanagement, Ease-of-use für die Anwender:innen, die Skalierbarkeit der Reports und Dashboards und die Ermöglichung der regulatorischen Korrektheit.
Im zweiten Teil des Vortrags stellen wir vor, welche Faktoren für den Erfolg der Serviceangebote maßgeblich sind. Anhand des automatisierten Test-Frameworks zeigen wir, wie eine Lösung konkret aussehen kann.
Miklas Horstmann arbeitet seit 2019 als Data Analytics Consultant/Architekt bei der Informationsfabrik. Sein Tätigkeitsschwerpunkt liegt in der Konzeption und Implementierung von modernen Reporting-Plattformen. Er ist für die inhaltliche und personelle Weiterentwicklung des Clusters Analytics Solutions bei der Informationsfabrik verantwortlich.
Thomas Löchte ist Gründer und Geschäftsführer der Informationsfabrik GmbH. Seit über 20 Jahren unterstützt er Kunden dabei, mehr Nutzen aus Daten zu gewinnen. Er war in verschiedenen Rollen in Data Analytics-, Business Intelligence- und Data Science-Projekten tätig. Heute berät er Führungskräfte hinsichtlich strategischer Themen und plant die Umsetzung komplexer Data Analytics-Lösungen für die Kunden der Informationsfabrik. Dabei legt er großen Wert auf die Erarbeitung Nutzen stiftender Business Cases, ein gutes Zusammenspiel zwischen Business und IT und eine positive Zusammenarbeit im Team.
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze
Laut dem BARC Data, BI & Analytics Trend Monitor 2023 sind die Top 5 Trends Master data / DQ Management, Data Culture, Data Governance, Data Discovery und Self-Service Analytics. Auch wenn der Begriff ,Data' dabei weiter gerne verwendet wird, drehen sich alle diese Trends eher um einen effizienten Umgang und den Mehrwert aus den Daten und nicht um die Daten selbst. Nach einer Bewertung von aktuellen Trends fokussiert sich der Vortrag im Schwerpunkt auf die konkrete Situation um die Mobilitätsbranche bei DKV Mobility.
Zielpublikum: Business Users, Entscheider:innen, Data Governance Spezialist:innen, Data Strategist
Voraussetzungen: Erfahrung mit Data & Analytics Projekten
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die Schwerpunkte in der Diskussion um die Analyse von Daten verschieben sich. Laut dem BARC Data, BI & Analytics Trend Monitor 2023 sind die Top 5 Trends Master data / DQ Management, Data Culture, Data Governance, Data Discovery und Self-Service Analytics. Auch wenn der Begriff ,Data' dabei weiter gerne verwendet wird, drehen sich alle diese Trends eher um einen effizienten Umgang und den Mehrwert aus den Daten und nicht um die Daten selbst.
Wenn es um den Mehrwert oder Effizienzen geht, reichen wage oder qualitative Aussagen nicht mehr aus. Um das C-Level von langfristigen Investitionen und dem Mehrwert der Data-Driven Company zu überzeugen, müssen Mehrwertversprechen, wie die Verbesserung der Transparenz oder der Prozess-Qualität, entlang von konkreten Use Cases in Euro umgerechnet werden können.
Nach einer Bewertung von aktuellen Trends fokussiert sich der Vortrag im Schwerpunkt auf die konkrete Situation um die Mobilitätsbranche bei DKV Mobility.
Nach der Entwicklung einer Daten-Strategie in 2020 ist die Umsetzung der Strategie beim DKV in vollem Gange. Welche Use Cases erzeugen messbaren Mehrwert, welche sind die richtigen KPIs, um den Erfolg der Datenstrategie zu messen, und welche Rolle spielt Data Governance dabei, sind Themen, die im Vortrag entlang der konkreten Situation beim DKV Mobility dargestellt werden.
Ein Blick nach vorne beim DKV und Do's und Don'ts schließen den Vortrag ab.
Dr. Sönke Iwersen verantwortet seit mehr 15 Jahren Data & Analytics-Organisationen in verschiedenen Industrien (u.a. Telefónica, Handelsblatt, XING, Fitness First, HRS). Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/soenke-iwersen/
Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Juli 2022 ist er Geschäftsführer bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/klaus-dieter-schulze/
Vortrag Teilen
Agile Vorgehensmodelle haben sich in der SW-Entwicklung flächendeckend etabliert. Viele Unternehmen stehen jedoch vor der Herausforderung, Agilität und die damit verknüpfte Philosophie nicht nur auf der operativen, sondern auf allen Ebenen zu nutzen. Frameworks für die Skalierung agiler Vorgehensmodelle (z.B . SAFe) sind dafür nur bedingt geeignet.
Der Vortrag führt die Themen Agile Transformation, Digitalisierung und New Work zusammen und zeigt am Beispiel der esentri AG, wie eine solche Transformation erfolgreich umgesetzt werden kann.
Zielpublikum: Personengruppen, die mit ihrem Unternehmen vor der Herausforderung einer agilen Transformation stehen und wissen möchten, was es dabei zu beachten gilt und wie man sein Unternehmen in eine agile Organisation überführt.
Voraussetzungen: Teilnehmer:innen sollten idealerweise Erfahrungen mit agilen Vorgehensweisen haben und offen für neue Ideen sein.
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
'Stellt Euch vor, Euer Unternehmen kann wie eine Software entwickelt werden. Neue Features und Changes sind möglich, Reaktion auf die Umgebung sind schnell und agil möglich; der CEO ist der Product Owner des Vorhabens und die Kreise die Komponenten ...'
Agile Vorgehensmodelle haben sich in der Softwareentwicklung mittlerweile flächendeckend etabliert. Viele Unternehmen stehen dabei jedoch gerade vor der Herausforderung, Agilität und die damit verknüpfte Philosophie nicht nur auf der operativen, sondern auf allen Ebenen des Unternehmens zu nutzen. Bestehende Frameworks für die Skalierung agiler Vorgehensmodelle, wie z. B. SAFe oder LeSS, sind dabei nur bedingt geeignet, die sogenannte Agile Transformation voranzutreiben.
Die Einführung agiler Methoden wird vielfach als ein disruptives Element für die Unternehmen bezeichnet, da diese nicht nur mit einer neuen Arbeitsweise einhergehen, sondern darüber hinaus auch zu einem kulturellen Wandel führen. Dieser kulturelle Wandel ist es aber, der häufig zu Problemen führt. Nicht der Wandel selbst, sondern die unterschiedlichen Geschwindigkeiten, mit denen er sich auf den verschiedenen hierarchischen Ebenen vollzieht, kann dabei zu Konflikten führen. Während die Produktentwicklung selbst agil geschieht, wird auf den oberen Leitungsebenen häufig noch klassisch geführt. Eine solche Zweigleisigkeit kann zu Ineffizienzen und letzten Endes auch zu unproduktiven Konflikten führen, wenn bottom-up mehr Agilität eingefordert wird.
Aus diesem Grund ist es für die Unternehmen unerlässlich, sich mit dem Thema der agilen Organisationsentwicklung frühzeitig zu beschäftigen, soll die angestrebte Transformation gelingen. Während SAFe und Co. eher von der Entwicklungsseite kommen, bieten neue Ansätze, wie etwa die von Oestereich/Schröder (2020) vorgeschlagene 'Kollegiale Führung', Alternativen an, die auf die Anpassungsfähigkeit der Organisation und auf ihre Fähigkeit, mit komplexen Problemen umzugehen, abzielen. Bei dieser Art der agilen Organisationsentwicklung arbeitet man, unter anderem ausgehend von den Holacracy-Ansätzen von [Robertson (2016) ] und der Soziokratie 3.0 [Bockelbrink et al. (2019)], mit einem Kreismodell. Die Aspekte Selbstorganisation und Anpassungsfähigkeit nehmen dabei einen besonderen Stellenwert ein und die Rolle der Führung verändert sich von command-and-control hin zu einem servant-leader und damit zu einer Agile Leadership im Sinne von Sieroux et al. (2020).
Gerade in datengetriebenen Unternehmen erhalten die obigen Themenkomplexe eine zunehmende Bedeutung. Marktteilnehmer, die diese Herausforderungen nicht offensiv angehen, werden zumindest mittelfristig mit Wettbewerbsnachteilen rechnen müssen. Der Vortrag führt insbesondere die Themen Agile Transformation, Digitalisierung und New Work zusammen und zeigt am Beispiel der esentri AG, wie die Umsetzung der vorgestellten Ideen gelingen kann. An diesem konkreten Beispiel wird verdeutlicht, wie eine solche Transformation, unterstützt durch den Ansatz der kollegialen Führung, gelingen kann, welche organisatorischen Herausforderungen zu meistern sind und wie sich nicht zuletzt die Rolle der Führung ändert. Wenn dies gelingt, dann kann die zu Beginn genannte Vision tatsächlich Realität werden.
Prof. Dr. Uwe Haneke ist seit 2003 Professor für Betriebswirtschaftslehre und betriebliche Informationssysteme an der Hochschule Karlsruhe (HKA). Dort vertritt er u. a. die Bereiche Business Intelligence und Projektmanagement im Fachgebiet Informatik. Den Bachelor-Studiengang 'Data Science' an der HKA hat er maßgeblich mitgestaltet. Seine Publikationen beschäftigen sich mit den Themen Open Source Business Intelligence, Data Science, Self-Service-BI und Analytics.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/uwe-haneke/
Frank Szilinski ist Gründer und CTO der esentri AG, Experte für digitale Transformation und Unternehmer aus Leidenschaft. Als digitaler Vordenker brennt er für Innovationen in Unternehmen und beschäftigt sich hauptsächlich mit neuen Arbeitswelten und dem dafür geeigneten Einsatz von Technologie. Er verantwortet die Umsetzung von nachhaltigen Digitalisierungsprojekten für Kunden aus verschiedenen Branchen und hat auch die esentri AG in ein kollegial geführtes Unternehmen transformiert.
Diese Session ordnet die Themenfelder und stellt den organisatorischen Rahmen dar, in den die Nutzung von Analytics in Unternehmen eingebettet sein sollte. Dazu werden zunächst statistische Grundlagen aufgefrischt. Darauf aufbauend werden Algorithmen und deren potenzielle Eignung für Anwendungen vorgestellt und diese anhand kleiner Beispiele durchgerechnet.
Maximale Teilnehmerzahl: 20
Bitte halten Sie einen Taschenrechner (die Taschenrechner-App Ihres Smartphones ist ausreichend) für diese Session bereit.
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/carsten-felden/
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/claudia-koschtial/
Vortrag Teilen
DWH automation is wonderful, but which tool? Using 13 typical data constellations, a fictitious data model is presented that can be used to evaluate the implementation performance of an automation tool. In 4 follow-up presentations, one implementation each will be presented based on the data.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
The automation of data warehouse development, especially in connection with Data Vault, drastically increases the speed of development in BI. Before using this technology, the question of the right tool for DWH automation arises:
Based on several tool evaluations and with a lot of know-how about typical Data Vault problems, the German Data Vault User Group (DDVUG) has created a fictitious company: Willibald - seeds and plants.
A data model with 13 typical problems is available for this purpose. Based on these typical problems, the implementations within the DWH automation tools can be evaluated.
In this presentation, these challenges are described and a catalogue of criteria for selection and evaluation is presented. In four further presentations, users/manufacturers will show how the challenge was implemented, giving an impression of how to use the tool and an insight into general functions.
This is an ideal start to your own tool selection as well as an ideal opportunity to get a tool overview or to update your own tool overview.
Christian Hädrich ist BI-Spezialist und unterstützt seit über 20 Jahren Unternehmen bei der Entwicklung von dispositiven Anwendungen und Data Warehouses. Durch seinen Mainframe-Hintergrund ist er häufig bei großen Unternehmen wie Versicherungen und Banken tätig. Neben der Implementierung liegt der Schwerpunkt seiner Arbeit in der Architektur- und Prozessberatung. Seit 8 Jahren beschäftigt er sich intensiv mit den Themen DWH-Automatisierung und Data Vault. Er ist Mitglied im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V.
Michael Müller ist seit mehr als 20 Jahren im BI-Bereich tätig. Seine Schwerpunkte liegen in den Bereichen Datenmodellierung und Datenarchitektur sowie Data Vault, DWH-Automatisierung und Einbettung von BI im Unternehmen. Derzeit ist er im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V. tätig.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/michael-mueller/
Vortrag Teilen
Den Wert einer Datenplattform zu realisieren, scheitert häufig an der Akzeptanz der Nutzer. In diesem Vortrag erfahrt Ihr, wie Google Menschenzentriertes Plattformdesign einsetzt, um Datenplattformen zu entwickeln, die genau auf die Bedürfnisse ihrer Benutzer zugeschnitten sind und so schnell und nachhaltig Wert zu schaffen.
Voraussetzungen: Grundlagen in Datenarchitekturen, Grundlagen in agilem Arbeiten, Grundlagen im Produktmanagement
Schwierigkeitsgrad: Fortgeschritten
Max Tschochohei ist bei Google Cloud für das Thema Data, Analytics und AI in Zentral- und Nordeuropa zuständig. Mit seinem Team unterstützt er die Kunden von Google Cloud dabei, das Meiste aus der Plattform herauszuholen. Vor seiner Zeit bei Google war Max bei NTUC Enterprise an der digital Transformation von Singapur beteiligt und arbeitete als Technologieberater bei der Boston Consulting Group.
In diesem Hands-On Workshop erhalten Sie eigenen Zugang zu den Kursmaterialien sowie einer geteilten SAP Datasphere Umgebung. Mit der Hilfe von SAP-Mentoren werden Sie durch die Kursmaterialien geleitet und führen die Übungen durch um erste, eigene, Erfahrungen mit der SAP Datasphere zu sammeln.
Inhaltlich werden wir uns dem Thema Data Modeling, unter Zuhilfenahme des Data Layers und des Analytical Model, sowie dem Thema Data Governance, unter Zuhilfenahme des Data Catalog, widmen.
Sebastian Wiefett ist Data Management Expert für SAP Data Warehousing mit Hauptexpertise für die Produkte SAP Business Warehouse (SAP BW/4HANA) und SAP Datasphere. Sebastian ist spezialisiert auf SAP BW/4HANA, SAP Datasphere sowie moderne Analytics Architekturen auf den verschiedenen Hyperscalern.
Bevor Sebastian Wiefett im Jahre 2020 in das deutsche Customer Advisory Team wechselte, war er zwölf Jahre in der SAP-Beratung tätig, wo es Teil seiner Aufgabe war, BW basierte Datawarehousing Architekturen zu implementieren.
Gordon Witzel startete im Jahr 2007 bei der SAP als BW-Berater. Hier unterstütze er internationale Kunden bei der Architektur und Implementierungen von SAP BW und SAP BWA.
2015 wechselte er in das SAP Data Warehouse Produktmanagement der SAP SE und hat hier basierend auf Anforderungen der Kunden mit der Entwicklung neue Features definiert, priorisiert und zur Umsetzung gebracht. Bei diversen nationalen und internationalen Events präsentiert Gordon zu den Themen SAP BW und SAP Data Warehouse Cloud und stellt die SAP Data Warehouse Produkte in Hands-On Workshops vor.
Weiterhin unterstütze er bei Definition der SAP Data Warehouse Strategie und begleitete die erfolgreiche Einführung der SAP BW bridge als Teil der SAP Data Warehouse Cloud im Jahr 2021. Seit 2022 ist Gordon Principal Presales Expert für das Data Warehouse Portfolio der SAP.
In an ideal world, every data user at a company has timely access to the data and insights they need, in the format they need, using tools that they are familiar with.
This presentation covers the three key factors to consider when you establish your data strategy (the “3 E’s”)
In the second Part, we will show you how to activate your data strategy in real world scenarios.
Target Audience: Whoever loves Data!
Vortrag Teilen
Mit der Weiterentwicklung zu einem eigenständigen Kreditinstitut stand die Investitionsbank Sachsen-Anhalt vor der Anforderung, ein bankenaufsichtsrechtlich konformes Datenmanagement zu bauen. In diesem Fachbeitrag werden die folgenden Punkte näher beleuchtet:
Zielpublikum: Projektmanager:innen, Entscheider:innen, Datenarchitekt:innen ..., die an Datenvirtualisierungs-Use-Cases interessiert sind
Voraussetzungen: Grundsätzliches Verständnis von Datenbanken
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die Investitionsbank Sachsen-Anhalt (IB-LSA) wurde zum 01.03.2023 von einem Geschäftsbereich der Norddeutschen Landesbank (Nord/LB) zu einem eigenständigen Kreditinstitut mit eigener Banklizenz weiterentwickelt, was u. a. ein aufsichtsrechtlich konformes Datenmanagement erfordert. In dem dazu aufgesetzten Projekt hat sich die IB-LSA für einen auf einer Datenvirtualisierungs-Software basierenden Single Point of Truth (SPOT) für das Weiterverarbeiten von Daten entschieden. In diesem Vortrag wird beschrieben, wie mithilfe dieses Ansatzes eine Datenzentrale sowohl für die Datenversorgung von Statistiken und Datenauswertungen als auch für den Datenaustausch zwischen den einzelnen bankfachlichen Anwendungen unter Einhaltung der aufsichtsrechtlichen Vorgaben für das Datenmanagement in Banken geschaffen wurde.
Nach seinem Informatikstudium an der Otto-von-Guericke-Universität mit
Schwerpunkt Datenbanken und einer sich anschließenden zweijährigen Tätigkeit als wissenschaftlicher Mitarbeiter wechselte Andreas Christiansen 1998 in die Investitionsbank Sachsen-Anhalt. Dort leitete er bis 2021 den IT-Bereich und leitete in jüngster Vergangenheit 2 Teilprojekte im Rahmen der Verselbständigung der Investitionsbank Sachsen-Anhalt.
The definition of a well-designed, stable & scalable data architecture has changed due to the increasing complexity & volume of a modern system landscape. To keep up with the latest technology, this session will provide an overview of the components of a modern data architecture. By outlining the benefits of a well-designed & structured data architecture, this session will provide clear guidelines for the current data management challenges in the area of technology, processes & organization.
Target Audience: Decision Maker, CTO, CIO, Head of BI, Data Engineer, IT
Prerequisites: Basic knowledge in technical architecture & data management
Level: Basic
Extended Abstract:
The goal of a modern data architecture is to provide organizations with the ability to effectively manage and utilize their data in a manner that supports their business goals and objectives. This session will focus on two arising modern data architectures: Data Mesh & Data Fabric.
Data Mesh is a decentralized approach to data management that focuses on empowering teams to own and manage their own data. In a data mesh architecture, data is managed by a set of microservices, each of which is responsible for a specific set of data. This approach allows teams to work with their data in a more flexible and autonomous manner, while still maintaining a high level of data governance and security.
Data Fabric refers to a unified data architecture that enables data to be accessible and usable across different systems, applications, and teams. It is a flexible and scalable solution that helps to overcome data silos and enables a single view of data across an organization. A data fabric is designed to adapt to changing data needs over time and to provide a seamless solution for data management and processing.
In my current position as the Head of Data Intelligence at Camelot, I serve as a Managing Consultant and Architect, guiding clients in the selection of optimal data management tools for their modern data architectures. My focus extends to realizing the principles of data mesh across organizational, process, and technological dimensions. I am committed to delivering comprehensive solutions and ensuring that organizations harness the full potential of their data assets. I have cultivated expertise in data integration platforms, including SAP Datasphere, Informatica Intelligent Data Management Cloud (IDMC), and Denodo.
Die systematische Nutzung von Freitexten bietet ein großes Potenzial für die Gewinnung neuer Erkenntnisse oder die Automatisierung von Prozessen, das Unternehmen verstärkt nutzen wollen. Der Workshop soll Datenanalysten den Einstieg in das Thema Text Analytics erleichtern. Anhang konkreter Anwendungsbeispiele werden die nötigen Schritte und aktuelle Analyse- und maschinelle Lernverfahren erläutert. Für die Datenvorbereitung und das Mining wird dabei Python genutzt, die Auswertung und Visualisierung der Ergebnisse erfolgt mit PowerBI.
Benötigt wird ein Laptop.
Zum Mitmachen sollten Python (Anaconda + zusätzlich spaCy) sowie PowerBI auf dem Laptop installiert sein
Zielpublikum: Data Engineers, Data Analysts, Projektleiter:innen
Voraussetzungen: Grundlegendes Verständnis von Data Mining bzw. Machine Learning sowie elementare Programmierkenntnisse (nicht notwendigerweise in Python) werden vorausgesetzt.
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Die analytische Erschließung von Texten ist für viele Unternehmen der erste Schritt in die Welt unstrukturierter Daten. Die Anwendungsgebiete sind vielfältig und reichen von der Auswertung von Kunden-Kommunikation für Marketing-Zwecke bis zum automatisierten Routing von Dokumenten oder der Priorisierung von Service-Requests.
Im Workshop wird anhand von Fallballspielen durchgespielt, wie ausgehend von einer Fragestellung ein Modell erstellt, evaluiert und visualisiert werden kann. Dabei wird gezeigt,
- wie Datenvorbereitung mit modernen NLP-Bibliotheken wie spaCy funktioniert
- wie sich schnell und elegant statistische Analysen auf den aufbereiteten Daten in Python und PowerBI umsetzen lassen
- wie aus Texten Feature-Vektoren erzeugt werden
- wie mit maschinellen Lernverfahren Texte klassifiziert und gruppiert werden können
- wie die Stärken und Schwächen der Modelle mit PowerBI transparent gemacht werden können
- wie Anwender selbst mit den Ergebnissen in PowerBI arbeiten können.
Prof. Dr. Jens Albrecht beschäftigt sich an der TH Nürnberg mit den Themengebieten Data Analytics und Natural Language Processing. Er ist Co-Autor des Buchs 'Blueprints for Text Analytics Using Python', das bei O'Reilly erschienen ist. Neben seiner Hochschultätigkeit ist er in der Industrie als Trainier, Data Scientist und Data Architect engagiert.
Prof. Dr. Roland Zimmermann ist ein Architekt für die Entwicklung anspruchsvoller IT-Systeme im Bereich Datenanalyse. Seine Lösungen umfassen die Definition von Indikatoren auf Basis von Erfolgsfaktoren, das Management von Daten (Analyse von Quellen, Integrationskonzepte, Automatisierungslösungen), die Konzeption integrierter Analytiklösungen (Multidimensionale Analysen, Process Mining und KI-gestütztes Maschinelles Lernen) sowie die Präsentation von Ergebnissen (Informationsdesign, Interaktionskonzepte, UI/UX).
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/roland-zimmermann/
Was hat Self-Service BI mit der Führerscheinprüfung zu tun?
Self-Service BI und Analytics wird oft selbstverständlich gelebt, ist aber nicht einfach abzugrenzen und zu erklären. In dieser Session nähere ich mich einer Erklärung anhand von Beispielen aus dem realen Leben (z. B. Straßenverkehr) und ordne dabei plakativ die einzelnen Komponenten wie Data Literacy, Datenkultur und Self-Service Governance ein. Dieser Schritt hilft bei der Prüfung und Einordnung von Thesen zum Thema Self-Service & Analytics.
Zielpublikum: Alle, die sich für Daten interessieren
Voraussetzungen: Ein paar Buzzwords zu kennen hilft
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Beispiele aus dem realen Leben (z. B. Straßenverkehr) helfen dabei, die einzelnen Komponenten wie Data Literacy, Datenkultur und Self-Service Governance plakativ einzuordnen. Dieser Schritt hilft bei der Prüfung von Thesen zum Thema Self-Service & Analytics, um sich dem Thema ganzheitlich zu nähern.
Dies ist insofern wichtig, weil Self-Service oft unterschiedlich verstanden und erlebt wird - Erklärungen sind immer wieder notwendig und sinnvoll, um die Erwartungshaltung in der Breite einzufangen.
Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe.
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld.
Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.
Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.
Duplikaterkennung in Stammdaten ist essenziell für alle Geschäftsberichte und -analysen. Klassische Methoden erfordern die manuelle, datenspezifische und zeitintensive Formulierung von Regeln und Ähnlichkeitsmaßen. Machine Learning-Methoden hingegen sind in der Lage, Muster und Regeln automatisch abzuleiten, um Duplikate zu erkennen und die Datenqualität in den Stammdaten zu erhöhen. In diesem Beitrag wird gezeigt, wie eine bestehende Master Data Management Software um individuelle und austauschbare ML-Methoden erweitert werden kann.
Zielpublikum: Data Engineers, ETL/DWH-Entwickler:innen, Enterprise Architects, Entscheider:innen
Voraussetzungen: Grundlagen Datenmanagement, Datenintegration, Data Governance und Machine Learning
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Stammdaten bilden die Grundlage für essenzielle Geschäftsprozesse oder betrieblich relevante Aufgaben in Unternehmen. In diesen Situationen verfälscht ein mehrfaches Vorhandensein identischer Datenobjekte jedoch das gewünschte Ergebnis. Mit Master Data Management-Systemen lassen sich die Datenmodellierung und daraus folgende Datenqualitätskriterien schnell und spezifisch definieren. Durch die Kombination verschiedener Funktionen (z. B. Datenmodellierung, Workflow-Engine, konfigurierbare User-Interfaces etc.) sind sie der zentrale Knoten für die Erzeugung einer 360°-Sicht auf die geschäftskritischen Daten.
Viele dieser Systeme bieten zwar die Möglichkeit, eine Funktion zum Matching (Duplikaterkennung ohne gemeinsamen Primärschlüssel) auf Basis von Zeichenkettenvergleichen umzusetzen, jedoch ist diese Vorgehensweise von der Konfiguration und auch von den zu vergleichenden Daten abhängig. Bei einer Änderung der Daten muss auch die Erkennung überarbeitet werden. Damit die Datenqualität jedoch weiterhin hoch bleibt und die Prozesse zuverlässig ausgeführt werden können, müssen unerwünschte Duplikate effektiv erkannt werden - unabhängig vom Datenkontext. Insbesondere bei komplexen Datensätzen oder Matching-Problemen (z. B. Erkennung von Duplikaten in unterschiedlichen Sprachen) können klassische Verfahren (z. B. basierend auf Levenshtein-Distanzen) nur unzureichende Ergebnisse liefern.
In diesem Beitrag wird gezeigt, wie Machine Learning-Algorithmen in diesen Fällen das Matching von Datensätzen übernehmen können. Es wird gezeigt, wie neuronale Netze in den Matching-Ablauf der Software integriert werden können und komplexe Matching-Situationen auflösen können. In einer Demo soll der Ablauf eines prototypischen Szenarios exemplarisch in einem MDM-System gezeigt werden.
Stammdaten nehmen in praktisch allen Einsatzzwecken eine zentrale Rolle ein. Sie bilden die Grundlage für viele Datenanwendungen in Unternehmen (z. B. in Analytics, DWH-Anwendungen und Operative Systeme). In Summe führt eine verbesserte Stammdatenqualität direkt zu besseren Berichten und damit auch zu besseren Entscheidungen in Unternehmen.
Igor Shmelev ist Software-Engineer bei der PRODATO Retail Solutions GmbH und absolviert sein Masterstudium in Informatik an der FAU Erlangen-Nürnberg. Sein Anwendungsgebiet ist die Full-Stack-Entwicklung mit C# und Data Governance mit besonderem Fokus auf Datenqualität.
Melanie B. Sigl ist Managing Consultant und leitet den Bereich Machine Learning bei PRODATO Integration Technology GmbH. Zusätzlich ist sie Lehrbeauftragte für 'Knowledge Discovery in Databases' am Lehrstuhl für Datenmanagement an der FAU Erlangen-Nürnberg.
Wie datenkompetent ist ein Unternehmen, wenn ein Großteil datenintensiver Aufgaben in Excel zurechtgeschustert wird? Wie geht man mit plötzlichen Abweichungen und Fehlern in Auswertungen und Dashboards um? Was ist, wenn man die eigentliche Arbeit vor lauter Datenverwaltung nicht mehr schafft? Solche Fragen werden entweder nicht gestellt oder bleiben zu lange unbeantwortet. Erfahren Sie, wie Unternehmen mithilfe der NewDataWork-Prinzipien lernen können, organisatorische und individuelle Datenkompetenzen schrittweise auf ein neues Level zu heben.
Zielpublikum: Angestellte und Führungskräfte in datenintensiven Organisationseinheiten, Excel-Fans und die, die es mal waren oder werden wollten
Voraussetzungen: Begegnungen mit oder Angst vor monströsen Excel-Dateien und manuellen wiederkehrenden Copy-Paste-Reportings
Schwierigkeitsgrad: Einsteiger
Andrea Weichand ist Autorin des Buchs 'Agile Datenkompetenz: Reporting-Prozesse mit und ohne Excel gestalten'. Als ehemalige Controllerin und aktive Business-Intelligence-Expertin unterstützt sie seit 2007 Unternehmen und Einzelpersonen dabei, Datenprodukte und Datenstrategien umzusetzen. Aus diesen Erfahrungen hat sie die NewDataWork-Prinzipien abgeleitet und aufgeschrieben, die neben technischen auch auf kreative und agile Veränderungen abzielen.
Diese Session erarbeitet Auswahlkriterien von Algorithmen und überträgt die Umsetzung in das Werkzeug RapidMiner. Natürlich ist dies nur ein Werkzeug unter vielen, jedoch soll es den Teilnehmern einen Eindruck vermitteln, wie in Projekten mit großen Datenbeständen und entsprechenden Analyseanforderungen werkzeugunterstützt gearbeitet wird.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner)
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/carsten-felden/
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/claudia-koschtial/
Vortrag Teilen
With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with datavaultbuilder. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald has been explained by DDVUG in session 1 previous lecture.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
The fictitious company Willibald has asked Datavault Builder to perform a POC for their new DWH. For this purpose, it has defined 13 typical challenges to be solved. In this talk we will present how the task was solved in Datavault Builder. For this, we agilely create a business model, which is automatically converted into working code. We load and analyse data, present the created documentation and data lineage and give an outlook on how the solution can be rolled out and operated.
About Datavault Builder
Datavault Builder is the award-winning business-driven data warehouse automation solution that allows you to trust your data and trust your decisions.
It is an efficient visual data integration solution replacing up to nine different software tools. Datavault Builder leverages standardization and cooperation between business and IT people as the key to success.
Increase productivity and benefit from the fastest possible time-to-insights without compromising on full auditability.
Petr Beles verfügt über fundierte Erfahrungen in Data-Warehouse-Projekten in den Bereichen Telekommunikation, Finanzen und Industrie. Seit mehreren Jahren führt er als Senior Consultant erfolgreich Projekte mit Data Vault durch. Nachdem er den Bedarf an Automatisierung mit Data Vault erkannt hatte, begann er zusammen mit seinen Kollegen mit der Entwicklung eines Automatisierungstools, das in der Erstellung des Datavault Builders gipfelte. Petr Beles ist heute CEO der 2150 Datavault Builder AG.
----
Petr Beles (Data-Vault-Specialist, Senior Consultant) has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault and trains teams in the application of this data modelling technique.
Es werden die Kerncapabilities und Architektur von SAP Datasphere vorgestellt. Dabei wird auch insbesondere auf Real World Beispiele eingegangen.
Voraussetzungen: Grundlegende Konzepte des Data Warehousing und Data Fabric sind bekannt
Schwierigkeitsgrad: All Level
Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als
Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte er das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“
und unterstützt die Automotive OEMs und Zulieferer bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehousing, Big Data und Maschine Learning.
Vom November 2018 bis 2023 leitete er das Presales Team Platform & Data Management in der SAP LDG.
Seid 2024 verantwortet er verschiedene Regionale GTM Projekte und unterstützt weiterhin aktiv die Erstellung Unternehmensarchitekturen im Bereich Data Management für ausgewählte Key Accounts the SAP.
Um Daten im Unternehmen nutzbar zu machen und unter Governance zu bringen, müssen diese beschrieben und katalogisiert sein - und das aus fachlicher Sicht, die übergreifend über die gesamte Systemlandschaft gültig ist. Doch wie fängt man an? ... mit einer Datenlandkarte!
In diesem Workshop modellieren wir live gemeinsam eine Datenlandkarte anhand eines Use Cases, den gerne eine:r der Teilnehmer:innen einbringen darf.
Outline:
Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Tobias Tschipan ist Business Consultant bei dataspot. Schon während des Studiums beschäftigte er sich ausführlich mit Daten und deren Einfluss auf strategische Entscheidungen. Aktuell setzt er sich im Projektgeschäft mit Fragestellungen an der Schnittstelle zwischen Fachbereich und Technik auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen dabei im gesamten Lebenszyklus von Metadaten und Data Governance zur Geltung, wobei sein Schwerpunkt auf Data Governance Organisation, Metadatenmanagement und Datenmodellierung liegt.
Die Sparkassen-Finanzgruppe verfügt über mehrjährige Erfahrungen und Erkenntnisse zur Entwicklung und dem produktiven Betrieb von ML-Algorithmen. Insbesondere die Nutzung von datengetriebenen Banking-Anwendungen im Vertriebsumfeld hilft Sparkassen bei der Kundenzentrierung und Automatisierung. Als Digitalisierungspartner betreibt die Finanz Informatik die entwickelten analytischen Anwendungen in Ihrer Finanzplattform „OSPlus“ und sorgt für eine Skalierung bei über 300 Sparkassen. Einen Einblick zur Entwicklung und Bereitstellung von analytischen Anwendungen für die 50 Mio. Kunden und Umsetzung einer kundenzentrierte Vertriebsstrategie sowie der Weiterentwicklung werden vorgestellt.
Zielpublikum: Produktmanager:innen, Projektmanager:innen, Prozess-Owner, Daten-Architekt:innen
Voraussetzungen: Basiswissen zu Datenarchitekturen und Enterprise-Anforderungen
Schwierigkeitsgrad: Fortgeschritten
Malte Lange ist ein innovativer und ergebnisorientierter Experte für Datenanalyse mit nachgewiesener Erfolgsbilanz bei der strategischen Implementierung von Process Mining und der Entwicklung einer Marketingautomatisierungslösung. Technischer Architekt einer Datenanalyse- und KI-Plattform für über 350 Sparkassen, spezialisiert auf Business Development und Use-Case-Enablement. Karriereentwicklung vom Datenbankexperten zum Analytics-Enabler, gekennzeichnet durch Innovation, strategisches Denken und effektive Teamführung.
Data mesh is an outstanding approach to build and manage modern data management solutions, but it is hard to implement practically without using implementation patterns. Certainly, data mesh is fundamentally an organizational approach, but experience has shown that democratization also results in losses in the technical governance of such solutions. In this talk, we will show how implementation patterns can be used to keep the data mesh under control without limiting the flexibility of the individual data products.
Target Audience: Data Engineer, Project Leader, Decision Makers, CDO, Product Owner
Prerequisites: Basic knowledge, experience in DWH, Data Lake, Lakehouse concepts
Level: Basic
Gregor Zeiler has been working in various functions in business intelligence consulting for thirty years. In the course of his professional activities, he has gained extensive project experience in many industries and on the basis of a wide range of technologies. Numerous publications and lectures accompany his professional activities. As CEO at biGENIUS AG, he pursues his passion for optimizing processes in the development of data analytics solutions.
Daniel Zimmermann is Product Owner for the Generator part of biGENIUS. He started his career as an ERP Consultant and Developer, and after 10 years switched to the Business Intelligence field for the past 15 years. In his current role, he uses his expertise from multiple BI projects across different industries, to design and program the blueprints that are used to automate the creation of Data Warehouse solution with a Metadata driven approach.
Die PERI SE hat in den letzten Jahren eine weltweite interne Community im Bereich Reporting etabliert, im Rahmen dessen zahlreiche Self-Service-Datenprodukte (Power BI) parallel zu den Standardreports (Power BI / SAP) entstanden sind. Im Rahmen der Session wird die Gesamtarchitektur vorgestellt, die Rolle des BI-Bereichs als zentrale Kompetenz- und Steuerungseinheit, aber auch das Zusammenspiel mit der internationalen Community und Endanwendern.
Zielpublikum: Entscheider:innen, BI-Verantwortliche
Voraussetzungen: Grundwissen im Bereich Daten ist von Vorteil
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Im Rahmen der Session wird die Gesamtarchitektur vorgestellt, die Rolle des BI-Bereichs als zentrale Kompetenz- und Steuerungseinheit, aber auch das Zusammenspiel mit der internationalen Community und Endanwendern.
Bernd Rehm beschäftigt sich seit seinem Wirtschaftinformatik-Studiums Ende 2014 mit BI und arbeitet heute als BI-Spezialist bei PERI SE. In der Abteilung Business & Process Intelligence befasst er sich insbesondere mit Themen aus den Bereichen Reporting, Planung und Self Service.
Simon Stützle arbeitet seit Ende 2019 als BI Business Partner bei der PERI SE. Immer mit Blick auf Daten und Reporting mit dem Ziel, der User Community von ca. 4.000 aktiven Reportnutzern die beste User Experience bieten zu können.
Mathias Prähofer arbeitet seit Ende 2015 in verschiedenen Funktionen bei der PERI SE. Immer mit Blick auf Daten und Reporting mit dem Ziel, der User Community von ca. 4.000 aktiven Reportnutzern die beste User Experience bieten zu können.
Vortrag Teilen
This session looks at how companies can use a data marketplace to share data (and analytical) products in a data mesh and to govern the sharing of data across the enterprise.
Target Audience: Chief Data Officers, Data Governance Directors, Data Engineers, Data Security Officers
Prerequisites: Basic understanding of data governance
Level: Basic
Extended Abstract:
Most firms today want to create a high quality, compliant data foundation to support multiple analytical workloads. A rapidly emerging approach to building this is to create DataOps pipelines that produce reusable data products in a data mesh. However, there needs to be somewhere where these data products can be made available so data to be shared. The solution is a data marketplace where ready-made, high quality data products that can be published for others to consume and use. This session looks at what a data marketplace is, how to build one and how you can use it to govern data sharing across the enterprise and beyond. It also looks at what is needed to operate a data marketplace and the trend to become a marketplace for both data and analytical products.
Mike Ferguson is Managing Director of Intelligent Business Strategies and Chairman of Big Data LDN. An independent analyst and consultant, with over 40 years of IT experience, he specialises in data management and analytics, working at board, senior IT and detailed technical IT levels on data management and analytics. He teaches, consults and presents around the globe.
Bei der Entwicklung von IT-Systemen, so auch Data Warehouses und analytische Applikationen, kommt es zu unerwünschten Nebeneffekten. Neben Fehlern gibt es Abweichungen von Architektur-Vorgaben oder Design Patterns, die als technische Schuld (Technical Debt) bezeichnet werden. Im Gegensatz zu Fehlern läuft das System zwar korrekt, jedoch hat es Auswirkungen auf die Weiterentwicklung und den Betrieb (Kosten, Zeit, Incidents etc.).
Typische Gruppen von Technical Debts werden kurz erklärt, was deren Auswirkungen sind und wie sie diese vermeiden können.
Zielpublikum: Architekt:innen, Projektleiter:innen, Entscheider:innen, Entwickler:innen
Voraussetzungen: Grundlagen in Data Warehousing oder analytischen Infrastrukturen
Schwierigkeitsgrad: Einsteiger
Herbert Stauffer, TDWI Fellow, hat über 30 Jahre Erfahrung in Business Intelligence und Analytics, als Projektleiter, Hochschuldozent und Berater. Seine Schwerpunkte sind Strategie und Architektur sowie Governance und Methodik. Er ist Hauptautor des Buches 'Testen von Data-Warehouse- und Business-Intelligence-Systemen' und Autor des Buches 'Security für DWH- und BI-Systeme'. Er ist Leiter des TDWI-Roundtables in Zürich seit 2009.
Diese Session beschäftigt sich mit dem Werkzeugunterstützungsgedanken mittels der Sprache R. Die in diesem Umfeld prominent genannte Sprache ist für statistische Berechnungen und Grafiken geschaffen worden. In der Session werden ausgewählte kleine Beispiele im Werkzeug umgesetzt.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
RStudio DESKTOP www.rstudio.com/products/rstudio/ (berücksichtigen Sie bitte, dass RStudio die zusätzliche Installation der R-Bibliotheken während der Schulung verlangt, z. B. von cran.r-project.org/mirrors.html)
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/carsten-felden/
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/claudia-koschtial/
Vortrag Teilen
With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with the open source software dbt. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald will be explained by DDVUG in a previous lecture.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
For the fictitious company Willibald, a complete data model with data is available that was created by DDVUG and provided with 13 typical challenges. In this presentation, a possible solution using dbt, datavault4dbt and our own extensions will be shown and combined into a complete data warehouse. This will give you an overall impression and the possibility to get your own comprehensive impression of the tool.
Dbt (data build tool) is a development framework that enables teams to build, test and deploy analytics solutions faster. It can be used to create a unified development environment for all data engineering and data analyst teams. Scalefree's open-source Datavault4dbt package extends dbt with dbt macros to build a Data Vault 2.0 compliant data warehouse.
In some places, we have supplemented this setup with self-developed macros. We have chosen Snowflake as the target platform, but other databases would also be possible for this setup, in part with a certain amount of adaptation.
In our view, the use of a data governance tool is highly recommended for the development of a data warehouse that can be maintained in the long term.
For this reason, we have extended our approach with an adapter to a graphical data governance tool to enable an almost completely automatic construction of the raw vault based on the centrally maintained metadata.
Andreas Haas has been working as a consultant in the business intelligence sector for over 20 years. During this time, he has successfully implemented data warehouse projects in various industries, mainly in the roles of data warehouse architect, data engineer and in project management. As a certified Data Vault 2.0 Practitioner, large metadata-driven Data Vault implementations are the main focus of his work.
Jan Binge has gained over 25 years of experience in the field of IT, out of which he has spent more than a decade as a freelance consultant specializing in "data warehouse design". Following his certification as a Datavault Practitioner in 2014, he has directed his attention towards modeling and developing data warehouse systems while also emphasizing the automation of creation processes.
In diesem Vortrag geht es um das Zusammenspiel von Value und Efficiency im Kontext von Daten und deren Bedeutung für Unternehmen mit begrenzten Ressourcen. Wir werden diskutieren, warum es wichtig ist, effiziente Prozesse zu schaffen, um Raum für Innovationen und Fortschritt zu schaffen, insbesondere im Datenbereich. Dabei werden konkrete Ansätze zur Effizienzsteigerung in den Datenprozessen vorgestellt und erläutert, wie diese dazu beitragen können, die Data Performance trotz Ressourcenbeschränkungen zu optimieren.
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze
A COVID19-pandemic and the resulting lockdowns with a global recession, an accelerating climate change and the Russian war in the Ukraine causing a high inflation are only some major challenges why decisions, forecast and predictions are getting more difficult for companies and for government. As a community of experts, it is our obligation to find the right solutions and meet the high expectations that we have set for ourselves.
Let’s face the facts! Even after all the trends and hypes we have seen and the impressive technology development in the last years, we haven’t solved the problem yet. We are still struggling with our promises to bring the right data to the right people at the right time or to make data the new oil of the 21st century.
Despite these challenges, there are promising trends such as data culture, data Mesh, decision intelligence, and generative AI that can be leveraged to increase the value of data. This presentation will highlight these trends and it will encourage to rethink the focus in data & analytics initiatives. Business potential beyond descriptive analytics with internal, structured data in batch processing, a realistic picture of the user in a self service world or the adaption of our data focused language to find a better acceptance on a C-level are some of the topics that will be addressed.
Let us work together to elevate the data & analytics market to the next level of maturity.
Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Juli 2022 ist er Geschäftsführer bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/klaus-dieter-schulze/
Wer bei Dark Data instinktiv an Darth Vader denkt, liegt nicht verkehrt: Riesige Mengen an „bösen“ Daten lauern unerkannt seit Jahrzehnten in den dunklen Tiefen Ihres Daten-Imperiums – und es werden täglich mehr.
PDFs oder Fotos mit personenbezogenen Informationen, „Individualsoftware“ mit Excel-Makros, vertrauliche Präsentationen mit Provisionserträgen, Videos mit zweifelhaftem Inhalt oder die völlige Intransparenz auf dem Sharepoint-Server – die Liste an Daten-Risiken lässt sich beliebig verlängern. Egal, ob nun eine Migration in die Cloud ansteht oder Sie sich präventiv vor Data Breaches schützen wollen, Sie müssen den Risikofaktor Dark Data JETZT beseitigen, um Ihre Datenqualität dauerhaft zu verbessern!
In dieser Case Study erfahren Sie von Daten-Jedi-Großmeister und Co-CEO Gregor Bieler…
Die Heidelberger Druckmaschinen AG setzt als Markt- und Technologieführer in der Druckbranche ihren Schwerpunkt auf konsequente ›End-to-end‹-Digitalisierung der Kundenwertschöpfung, also vor allem auf integrierte und automatisierte Systemlösungen für Maschinen, Software, Verbrauchsgüter und Services.
Im Rahmen der digitalen Transformation wurde das IOT-Datawarehouse mit dem Ziel der zentralen Verarbeitung von Druckmaschinendaten und Bereitstellung von wichtigen Kennzahlen (KPI) ins Leben gerufen. Diese werden in Form von Reports und Apps dem Kunden direkt zur Verfügung gestellt.
Das IOT Datawarehouse Team setzt dabei auf die Datenplattform Snowflake.
Durch ein Zusammenspiel aus verschiedenen Technologien und Tools wie dbt core, Snowpipe, Snowpark, gitlab und der Unterstützung durch Experten von areto consulting konnte eine Lösung realisiert werden, die die Grundlage einer standortunabhängigen Optimierung der Druck- und Produktionsprozesse bildet.
Dr. Johanna Geiß ist seit 4 Jahren bei der Heidelberger Druckmaschinen AG tätig. Als Product Owner ist sie verantwortlich für die Bereitstellung, Weiterentwicklung und Koordination des IOT Data Warehouses, in dem Maschinen- und Produktionskennzahlen berechnet werden.
Zuvor arbeitete sie u.a. in der Database Systems Research Group der Universität Heidelberg und promovierte im Bereich Natural Language Processing an der University of Cambridge.
Dr. Florian Petersen arbeitet als Data Engineer/Scientist im Team IOT Datawarehouse bei der Heidelberger Druckmaschinen AG. Zuvor sammelte er Erfahrungen mit diversen Datenstrukturen/-banken und Verarbeitungsalgorithmen während seiner Tätigkeit an der Universität Kiel und seiner Promotion in Mariner Geophysik am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel.
Mehr als 70% aller Stückgüter werden derzeit weltweit per Container transportiert.
Im Zuge der CO2-Reduzierung ist das Ziel, möglichst viele Container auf der Schiene zu transportieren. Für die letzte Meile übernehmen dann LKWs den Transport.
Die Deutsche Umschlaggesellschaft Schiene-Straße (DUSS) mbH, eine DB-Tochter, betreibt 19 Containerterminals in Deutschland, um die Container auf die verschiedenen Verkehrswege um zu laden.
Für die Abrechnung, die Planung und die Simulation der Arbeiten an den Terminals wurden 2021 die Systeme neu konzipiert und umgesetzt und sind seit 2022 im produktiven Betrieb und von PWC zertifiziert.
Der Vortrag soll das Zusammenspiel der einzelnen Komponente der Datenintegration, des Datawarehousing und Business Intelligence in einem agilen Entwicklungsprozess beschreiben, der das Projekt zum Erfolg geführt hat.
Dabei wurden einzelne Quellen additiv in das Data Warehouse der DUSS integriert. Damit wird dem Controlling der DUSS ermöglicht, das Reporting effizient zu erstellen und Umsatz-Simulationen durchführen zu können.
Ein wesentlicher Faktor für den Erfolg ist hier das Zusammenspiel zwischen Datavault Builder, TM1 und Apache Airflow.
Rüdiger Koch - Über mich:
• Produkt Owner Service dataXpress (von der Idee bis zur produktiven Nutzung)
• Projekt DORIS (DUSS-Abrechnung)
• Treiber von Innovationen (datavault, dataXpress, ODI, NiFi, ExaSol)
• Bei DB Systel seit 2009
Meine Expertise:
• Fachliche und technische Datenmodellierung
• Big Data
• Architekturmanagement
• Serviceaufbau in AWS
• Daten Back-End Systeme (Oracle, Hadoop, ExaSol, RedShift)
• ETL (BODS, Talend, NiFi, ODI, dvb
Petr Beles verfügt über fundierte Erfahrungen in Data-Warehouse-Projekten in den Bereichen Telekommunikation, Finanzen und Industrie. Seit mehreren Jahren führt er als Senior Consultant erfolgreich Projekte mit Data Vault durch. Nachdem er den Bedarf an Automatisierung mit Data Vault erkannt hatte, begann er zusammen mit seinen Kollegen mit der Entwicklung eines Automatisierungstools, das in der Erstellung des Datavault Builders gipfelte. Petr Beles ist heute CEO der 2150 Datavault Builder AG.
----
Petr Beles (Data-Vault-Specialist, Senior Consultant) has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault and trains teams in the application of this data modelling technique.
Why did we change the way we used to work, and what are the challenges and risks today? Which ingredients are key for a data platform that will scale? Mark van der Heijden will cover the past, present and future of data engineering to answer these questions leading to a sustainable data platform.
Mark is lead engineer and part of the EMEA founding team at Coalesce.io. He started his career in data 18 years ago with an internship at Oracle, and later graduated at Getronics where he received a thesis award from Accenture. Since then, Mark has covered roles across the data lifecycle and across all parts of the data ecosystem.
With his extensive background in data integration, data modelling and data architecture, Mark has specialized in data automation. He is a strong believer that automation plays a key part in every successful data warehouse implementation. Prior to joining Coalesce.io, he has worked as an independent advisor and different roles at WhereScape, Teradata, and several consultancy firms. He is known as an honest, highly experienced professional with a broad general interest for technology, always striving for the optimal result.
Diese Session zeigt, wie die Open-Source-Technologien Apache Kafka und Apache Flink gemeinsam genutzt werden können, um Kundentransaktionsdaten anzureichern und ihren Wert zu erschließen. Die Teilnehmer erhalten praktische Umsetzungsstrategien und bewährte Verfahren, um Kafka und Flink optimal zu nutzen und Erkenntnisse aus rohen Transaktionsdaten in Echtzeit zu gewinnen.
Bevor Jan Svoboda bei Confluent seine Apache-Kafka-Reise begann, war er unter anderem als Advisory Platform Architect bei Pivotal. Seit April 2020 ist Jan bei Confluent als Solutions Engineer beschäftigt und hat dabei die Entwicklung von Stream Processing als sein Lieblings-Thema etabliert. Jan hält Abschlüsse in Management of Information Systems der UNYP sowie Computer Science an der UCF.
Datenlandschaften sind heute zunehmend komplex, hoch fragmentiert und global verteilt. Aus diesen Gründen rücken immer mehr Unternehmen von monolithischen und zentralisierten Datenarchitekturen ab und orientieren sich stattdessen an neuartigen Architektur-Paradigmen wie der Data Fabric oder Data Mesh. Im Vortrag gibt Otto Neuer, Regional Vice President und General Manager bei Denodo, spannende Einblicke in zentrale Fragestellungen:
Otto Neuer - “I am passionate about working in one of the hottest spaces in the industry: Data Management. It is not just about data – it's also about people and the way we use data and related technologies. Therefore, I am proud to work with leading customers and partners, helping them to tackle their challenges and to build a sustainable data platform.”
- Regional Vice President and General Manager, Central Europe at Denodo since 2019
- Previous Sales Management roles in organizations like Talend, Informatica, Cognos & more
In dieser Session werden wir uns kurz die Entwicklung von Business Intelligence und Data Analytics im Laufe der Zeit anschauen und dann unsere Aufmerksamkeit auf die Zukunft datengesteuerter Organisationen richten. Raphael Teufel wird über seine Erfahrungen sprechen, die er in Zusammenarbeit mit verschiedenen Organisationen machen konnte. Ausgehend von diesen Perspektiven betrachten wir die notwendigen Komponenten für die Umsetzung einer erfolgreichen Datenstrategie in Unternehmen jeder Größenordnung. Wir werden herausfinden, was durch das Zusammenspiel eines modernen Analytics-Stacks und den richtigen Menschen und Prozessen möglich ist und wie man seine datenbasierte Entscheidungsfindung auf ein neues Level hebt.
Raphael Teufel hilft in seiner Rolle als Solutions Architecture Lead EMEA bei InterWorks seit über sechs Jahren Unternehmen dabei, einen Mehrwert aus ihren Daten zu generieren. Seine Philosophie für eine gute Datenstrategie besteht aus drei Kernkomponenten: People, Process und Platform (Technologie). Gemeinsam mit seinen Kunden arbeitet er daran, eine Datenvision und -strategie zu erschaffen, den für sie passenden modernen Analytics-Stacks zu implementieren und so Mitarbeitende im gesamten Unternehmen dazu zu befähigen, datengestützte Entscheidungen zu treffen.
Als Marktführer im Bereich Cloud-Datenmanagement versteht Informatica die Bedeutung von Machine Learning (ML) in modernen Datenworkflows. Um jedoch das volle Potenzial von ML auszuschöpfen, müssen Organisationen auch MLops akzeptieren - die Praxis, DevOps-Prinzipien auf Machine-Learning-Projekte anzuwenden.
In diesem informativen Vortrag tauchen wir in die Welt von MLops ein und erkunden bewährte Methoden, um ML nahtlos in Ihre Datenmanagementstrategie zu integrieren. Von der Datenerfassung und -vorbereitung über die Modellentwicklung, Bereitstellung und Überwachung diskutieren wir die wichtigsten Herausforderungen und Chancen von MLops und geben praktische Tipps, wie Sie diese bewältigen können.
Erfahren Sie, wie Sie Ihre ML-Workflows optimieren, Bereitstellungspipelines automatisieren, kontinuierliche Integration und Bereitstellung (CI/CD) für ML-Modelle implementieren und die Leistung von Modellen in der Produktion optimieren können. Entdecken Sie, wie die innovativen Lösungen von Informatica Ihnen helfen können, die Einführung von MLops in Ihrer Organisation zu beschleunigen, die Zusammenarbeit zwischen Data Scientists und IT-Betrieb zu verbessern und das volle Potenzial von Machine Learning für datengetriebene Entscheidungsfindung freizuschalten.
Dr. Martin Hebach verantwortet als Senior Solutions Architect bei Informatica seit beinahe 9 Jahren die Konzeption und kontinuierliche Weiterentwicklung der Architektur von cloudbasierten Datenmanagement-Lösungen wie Analyse- und Berichtsanwendungen sowie Datenplattformen im Zuge der digitalen Transformation. Dr. Hebach verfügt über eine langjährige Erfahrung in den Bereichen IT-Management, Unternehmensarchitektur und Beratung bei internationalen und größeren mittelständischen Unternehmen aus Finanz, Automotive und Bioscience.
Federated Learning ist eine innovative KI-Technologie mit großem Potenzial für sensible Branchen, wie Banken- und Versicherungen. In diesem Vortrag geben wir einen Überblick über Anwendungsfälle und Vorteile der Technologie, einschließlich Performance, Datenschutz und Effizienzgewinne durch Dezentralität. Außerdem demonstrieren wir die technische Funktionsweise, inklusive Referenzarchitektur und zeigen Anwendungsbeispiele um zu demonstrieren, wie mittels Federated Learning innovative KI getriebene Anwendungsszenarien umgesetzt werden können.
Zielpublikum: Entscheider:innen, Projektleiter:innen, Data Scientists und Data Engineers
Voraussetzungen: Kein tieferes Vorwissen notwendig. Ein Grundverständnis von KI ist hilfreich.
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Einführung in FL und Plattform
Federated Learning (FL) ist eine Methode, bei der Daten auf verteilten Systemen gesammelt und verarbeitet werden, um ein gemeinsames Machine Learning-Modell zu erstellen, ohne dass die Rohdaten jemals zentral geteilt werden. Dies ermöglicht es, Datenschutz und Datensicherheit zu wahren, da die Daten nicht an einen zentralen Ort übertragen werden müssen. Federated Learning eignet sich daher besonders für Anwendungen, bei denen Daten dezentral vorliegen, oder für Anwendungsfälle auf Basis sensibler Daten.
Die von uns entwickelte Plattformlösung für Federated Learning ermöglicht es, diese Technologie schnell und einfach in Ihre Produkte und Dienstleistungen zu integrieren. Hierdurch kann das Federated Learning einfach auf Daten angewendet werden, ohne sich Gedanken über die technischen Details der Implementierung und den Aufbau einer komplexen Infrastruktur machen zu müssen. Auf diese Weise können schnell und einfach Machine Learning-Modelle auf der Grundlage der Daten von verteilten Entitäten erstellt werden.
Henrik Kortum ist Manager bei der Strategion GmbH und als Projektleiter am Deutschen Forschungszentrum für Künstliche Intelligenz tätig. Nach seinem Studium der Wirtschaftsinformatik und Zertifizierung zum Data Scientist hat er zunächst mehrere Jahre als Koordinator für KI-Projekte in einem Versicherungskonzern gearbeitet. Derzeit koordiniert er bei der Strategion eine Reihe von KI- und Data-Science-Projekten und leitet ein BMWK-gefördertes Projekt im Bereich Federated Learning.
Dominik Hubertus ist Geschäftsführer der Strategion GmbH und hat mehr als 15 Jahre Erfahrung in der Beratung, Projektleitung und Softwareentwicklung. Er ist Experte für Digitale Transformation, Digitalisierung und Prozessautomatisierung. Sein technischer Schwerpunkt liegt in der Konzeption (Architektur) und Koordination der Entwicklung komplexer Softwaresysteme.
At SWICA we started our movement towards data mesh 2021. At TDWI 2022 we presented our latest platform which basically consists of resources and patterns to hold and manage decentralized compute and storage services for our data. For this year’s session we are prepared to show working platform services like discovery, publishing and compliance. Our user interfaces and recap best practices during the implementation phasis.
Target Audience: Platform Engineers, Data Engineers, Data Analysts, Project Leaders, Decision Makers
Prerequisites: Basic understanding of the data mesh concept, data warehouse architectures and the challenges of diverse analytical use cases from multiple lines of business
Level: Expert
Extended Abstract:
A long with 'Version 1' we realized, that we need to refactor some components of our mesh. We will share our 'lessons learned' and 'best practices' with you and hope to answer a couple of questions that you might be thinking or haven’t thought of. E.g., orchestration, provisioning, cicd and much more.
SWICA
2019 - 2021
BUCHI LABORTECHNIK AG
2018 - 2019
Informatec Ltd.
2008 - 2018
Frenzel GmbH
15 years of BI industry experience as a project manager, analyst, team lead and solution architect. Closely following new concepts and technologies, aiming for practical application in the enterprise world.
Die Zement- und Betonproduktion ist für knapp 10 % der globalen CO2 -Emissionen verantwortlich und stellt damit einen gewaltigen Hebel bei der Erreichung wichtiger Klimaziele dar. Die Suche nach klimafreundlicheren Alternativen erfolgt heute aber größtenteils aufwendig manuell auf Basis von Erfahrungswerten. Wir zeigen das enorme Potenzial KI-gestützter Priorisierung auf, insbesondere des sequenziellen Lernens, und stellen eine Applikation vor, die eine Feedback-Schleife zwischen Vorhersage und Validierung neuer Rezepturen realisiert.
Zielpublikum: Data Scientist, Product Owner, Fachabteilung
Voraussetzungen: Grundlagen im Bereich Machine Learning
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die Bauindustrie und insbesondere die Beton- und Zementherstellung tragen massiv zum weltweiten CO2-Ausstoß bei. Daher ist es zwingend notwendig, möglichst schnell alternative Baustoffe zu entwickeln. Gleichzeitig ist Beton als Baustoff in weiten Bereichen als alternativlos zu betrachten. CO2-optimierte Betonrezepturen stehen daher im Fokus der Forschung. Neben verbesserter Umweltfreundlichkeit müssen diese allerdings Mindestanforderungen an mechanischen Eigenschaften wie Druckfestigkeit erfüllen. Schließlich müssen Faktoren wie Kosten und Verfügbarkeit berücksichtigt werden.
Die Suche nach neuen Varianten ist dabei sehr aufwendig: Typische Rezepturen werden durch 40 oder mehr Parameter charakterisiert. Neben chemischer Komposition sind hier auch Informationen zum Herstellungsprozess, sowie Mischverhältnisse mit Gesteinen, Wasser usw. relevant. Während sich die CO2-Bilanz des Herstellungsprozesses auf Basis dieser Parameter heuristisch abschätzen lässt, ist es a priori nicht möglich, Eigenschaften wie Druckfestigkeit des resultierenden Materials auf Basis von Modellen vorherzusagen. Zeitaufwendige und kostenintensive Experimente sind notwendig, um diese zu ermitteln.
Statt basierend auf Erfahrungswerten mögliche Kandidaten zu verproben, stellt sich die Frage, ob hier ein KI-basierter Ansatz helfen kann. Allerdings gibt es aufgrund des aufwendigen Herstellungsprozesses wenige gelabelte Daten. Die Kombination aus komplexem Parameterraum bei gleichzeitig wenigen bekannten Labels führt dazu, dass Standard-Regressionsalgorithmen nicht oder nur sehr eingeschränkt helfen.
Typischerweise können Machine Learning-Algorithmen verlässliche Vorhersagen machen, wenn ein repräsentatives Sample von Features und zugehörigen Labels für das Training verfügbar ist. Es stellt sich daher die Frage, ob und wie ein solches Sample möglichst effizient generiert werden kann, insbesondere bei hoher Dimensionalität der Daten und wenn Labels teuer sind. Je nach Problemstellung kann es dabei helfen, sich auf spezifische Bereiche der Verteilung zu fokussieren. Möchte man zum Beispiel nur Werte oberhalb einer definierten Grenze vorhersagen, reicht es aus, den Teil der Verteilung zu lernen, der zu eben solchen Werten führt.
Ein vielversprechender Ansatz ist Sequential Learning, eine Form der Bayes'schen Optimierung. Über sukzessives und gezieltes Anreichern der Trainingsdaten um weitere Labels ist es möglich, effizient die Vorhersagen der Algorithmen in noch nicht explorierten Parameterbereichen zu verbessern. Statt zufällig Daten auszuwählen und möglicherweise aufwendig zu labeln, wird versucht mithilfe passender Metriken gezielt Datenpunkte zu priorisieren. Im Kontext der Materialwissenschaften wird somit ein Feedback Loop zwischen KI-Vorhersage und tatsächlichem Experiment realisiert. Schritt für Schritt wird der Algorithmus mit neuem Wissen aus dem Labor angereichert und somit werden Vorhersagen iterativ verbessert.
Mit Kollegen der Bundesanstalt für Materialforschung und -prüfung (BAM) haben wir im Detail die Implikationen dieses Ansatzes für die Betonforschung analysiert. Pro Iteration werden die Rezepturen gemäß dem Kriterium 'Nützlichkeit' priorisiert. Dieses umfasst sowohl Vorhersagen für Parameter wie Druckfestigkeit, als auch a priori Information zu sozioökonomischen Faktoren wie CO2-Ausstoß. Unsere Ergebnisse implizieren, dass sich mit Sequential Learning sehr viel schneller Rezepturen mit den gewünschten Eigenschaften identifizieren lassen, als es beim zufälligen Samplen der Fall ist. Diese Ergebnisse und die Universalität des Ansatzes legen nahe, dass Sequential Learning auch in anderen Forschungs- und Industriebereichen erfolgreich angewandt werden kann.
Schließlich gebe ich einen kurzen Einblick in SLAMD, eine Webapp, die wir mit der BAM entwickelt haben. Diese stellt intuitive Funktionen für eine konkrete experimentelle Kampagne zur Verfügung und ermöglicht es so, die beschriebenen Ideen schneller umzusetzen. Aufgrund der einfachen Bedienbarkeit ist es somit möglich, moderne Materialforschung und Sequential Learning auch jenseits der Forschungsinstitute einem breiteren Publikum zugänglich zu machen.
Dr. Tehseen Rug hat nach seiner Promotion mit anschließendem Post Doc in der theoretischen Physik die Software-Welt für sich entdeckt. Als Senior AI & Data Engineer bei iteratec unterstützt er Kunden bei diversen Softwareprojekten in den Bereichen Data Analytics, AI und Software- und Cloud-Architektur. Privat interessiert er sich für alle Themen rund um Technologie und Forschung.
Scrum-Teams sammeln in ihren Jira-Projekten einen immensen Datenschatz. Wir zeigen, wie diese Daten mithilfe von Data Science-Methoden im gesamten Scrum-Prozess vom Planning bis zur Retrospektive eingebracht werden können. Geplante vs. umgesetzte Velocity, Kopfmonopole und Chaos im Backlog werden besprochen.
Ziel ist es, dem Scrum-Team Methoden in die Hand zu geben, um offene Entscheidungen datenbasiert zu treffen. Dafür lernt es, eigenverantwortlich die notwendigen Daten mithilfe eines Self-Service BI-Tools zu erheben und zu analysieren.
Zielpublikum: Data Scientists und Scrum-Teams
Voraussetzungen: Grundlegende Scrum-Kenntnisse
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die Einflussnahme und die unterschiedlichen Interessen der Stakeholder in Scrum-Projekten können eine fokussierte Ausrichtung auf Sprint-Ziele schwierig machen. Wir zeigen, dass in Jira-Projekten durch moderne Natural-Language-Processing-Methoden (NLP-Methoden) die Messung der inhaltlichen Heterogenität der einzelnen Aufgaben des Sprints möglich ist. Hierbei wird eine thematische Ähnlichkeit der Jira-Tickets über die Inhalte der Beschreibungstexte und der Titel angenommen - ähnlich zum Vorgehen einer Suchmaschine. Ein Jira-Projekt mit einigen Monaten Laufzeit reicht hierzu als Datenbasis aus. Diese Methode ist aber auch für sämtliche Projektgrößen, bis hin zu großen Entwicklungsprojekten, geeignet.
Auch mehrsprachige Aufgabenbeschreibungen und projektbezogene Fachsprache im Ticket stellen kein Problem dar. In unserem Vortrag fokussieren wir uns auf die Fragestellungen: Ist Excel wirklich das effizienteste Tool, um die langfristige Entwicklung der Velocity in einem Projekt zu untersuchen? Trägt eine starke Ausrichtung auf das Sprint-Ziel zu einer hohen Velocity bei? Wurde mein Team im Laufe des Sprints vom Tagesgeschäft abgelenkt?
Diese Fragen können wir mithilfe der zuvor beschriebenen Methodik zuverlässig analysieren. Als Ergebnis entstehen automatisch aus Jira abgeleitete Dashboards, die Teams bspw. mit PowerBI einsehen und reflektieren können. Wir berichten von unserer Praxiserfahrung und insbesondere wird es um die Korrelation von Heterogenität und Velocity gehen. Danach möchten wir gemeinsam mit dem Auditorium die Schlussfolgerungen für Scrum-Teams und deren inhaltliche Steuerung daraus diskutieren.
Dr. Ina Humpert ist Mathematikerin und als Beraterin bei der viadee IT-Unternehmensberatung tätig. Ihr Schwerpunkt ist Data Engineering auf SQL basierten Datenbanken im Bankenumfeld. Außerdem interessiert sie sich für Daten-Visualisierung unter anderem mit Power BI.
Ronja Köhling ist Beraterin bei der viadee. Ihr aktueller Schwerpunkt liegt im Bereich Data Science, unter anderem Maschinelles Lernen, Operations Research und Process Mining. Darüber hinaus interessiert sie sich für agile Themen und deren Schnittstellen zum Bereich Data Science.
Ohne Zweifel sind Daten einer der Kernbestandteile der Digitalisierung. Leider scheitern Digitalisierungs- und Datenprojekte häufig an fehlenden, heterogenen oder fehlerhaften Daten. Den notwendigen Datenqualitätsgrad zu erreichen, ist jedoch alles andere als einfach, da es Menschen, Prozesse und Technologie im Einklang erfordert. In dieser Präsentation gibt DB Regio Bus einen Einblick in ihre Erfolgsstory, wie die Organisation den Level der Datenqualität für geschäftskritische Daten deutlich steigern konnte.
Zielpublikum: Manager:innen, Data Governance Manager, CIOs, CDOs, Entscheider:innen, Head of Data, Data Analytics Leader
Voraussetzungen: Grundkenntnisse im Datenmanagement
Schwierigkeitsgrad: Einsteiger
Marcus Gilg is Head of IT/CIO at DB Regio Bus. He has a long experience in data management, digitization and public transportation. After previous positions in transport management, e-commerce and M&A, he took over the position as Head of IT in 2014 with the ambition to modernize the ICT of the bus company of Deutsche Bahn. Marcus established a 100% cloud strategy and renewed the whole IT-infrastructure for around 9.000 employees. At present, the focus of his team is digitization, automation and modularization. In this context, Marcus successfully established the data excellence initiative of DB Regio Bus. Since its start, data availability and data quality have enormously improved, as well as the ability related to transform the company with data.
Dr. Christian Fürber ist promovierter Datenqualitätsexperte und Geschäftsführer der Information Quality Institute GmbH (iqinstitute.de), einem spezialisierten Beratungsunternehmen für Data Excellence und Data Management Lösungen. Vor der Gründung von IQI im Jahr 2012 war er in verschiedenen Positionen im Datenmanagement tätig. Unter anderem etablierter er für die Bundeswehr eine der ersten Data Governance Organisationen und führte dort ein standardisiertes Datenqualitätsmanagement ein. Christian und sein Team haben unzählige Datenprojekte und -strategien für bekannte Unternehmen verschiedener Branchen erfolgreich umgesetzt und ihnen dabei geholfen, erheblichen Mehrwert aus ihren Daten zu ziehen. Neben seiner Tätigkeit bei IQI ist Christian auch Autor und Redner auf Konferenzen (u.a. am MIT) und organisiert den TDWI Themenzirkel "Data Strategy & Data Governance".
Vortrag Teilen
Kontrovers, provokativ und konstruktiv – wir diskutieren mit Ihnen das Thema Next Generation Data Management.
Gordon Witzel startete im Jahr 2007 bei der SAP als BW-Berater. Hier unterstütze er internationale Kunden bei der Architektur und Implementierungen von SAP BW und SAP BWA.
2015 wechselte er in das SAP Data Warehouse Produktmanagement der SAP SE und hat hier basierend auf Anforderungen der Kunden mit der Entwicklung neue Features definiert, priorisiert und zur Umsetzung gebracht. Bei diversen nationalen und internationalen Events präsentiert Gordon zu den Themen SAP BW und SAP Data Warehouse Cloud und stellt die SAP Data Warehouse Produkte in Hands-On Workshops vor.
Weiterhin unterstütze er bei Definition der SAP Data Warehouse Strategie und begleitete die erfolgreiche Einführung der SAP BW bridge als Teil der SAP Data Warehouse Cloud im Jahr 2021. Seit 2022 ist Gordon Principal Presales Expert für das Data Warehouse Portfolio der SAP.
Markus Ganser startete 1999 bei Bitburger als ABAP-Entwickler und in der Modulbetreuung im MM. Im Laufe der nächsten Jahre war er zusätzlich verantwortlich, für die Betreuung und Entwicklung von SAP Business Workflows und die Einführung der SAP Supplier Relationship Management (SRM).
Im Jahre 2005 wechselte er in das Themengebiet Analytics und übernahm die Betreuung des SAP Business Warehouses (SAP BW). Dort war er die Provisionierung, die Modellierung der Daten und deren Bereitstellung zuständig (”vom Extraktor bis zur Query”).
Seit 2021 ist Markus Teamleiter ”SAP Analytics” und verantwortet und betreut mit zwei Mitarbeiterinnen die Themenkomplexe BW/4, SAC, DWC und Hana Modellierung in der Bitburger Braugruppe.
Matthias Stemmler startete 1997 in der Technologie und Data Management Strategie Beratung. In Laufe der nächsten Jahre trugen viele nationale und internationale Projekte seine Handschrift als
Architekt und/oder Projektleiter. Mit seinem Eintritt in die SAP im Oktober 2012 verstärkte er das Technologie Presales Team der SAP Deutschland SE. Matthias war seit April 2016 in der Rolle des „Platform Architect“
und unterstützt die Automotive OEMs und Zulieferer bei dem Scoping, Auswahl und Erstellung innovativer Szenarien in den Bereichen Data Management, Data Warehousing, Big Data und Maschine Learning.
Vom November 2018 bis 2023 leitete er das Presales Team Platform & Data Management in der SAP LDG.
Seid 2024 verantwortet er verschiedene Regionale GTM Projekte und unterstützt weiterhin aktiv die Erstellung Unternehmensarchitekturen im Bereich Data Management für ausgewählte Key Accounts the SAP.
Harry Enns war nach seinem Betriebswirtschaftsstudium mit Schwerpunkt Informatik an der Fachhochschule Niederrhein (Mönchengladbach) 1999 zunächst als Berater mit dem Fokus auf Business Intelligence-Projekte im SAP Umfeld tätig, bevor er 2011 zu INFOMOTION wechselte. Dort verantwortet er seitdem den Bereich SAP BW/HANA und dessen Weiterentwicklung, außerdem leitet Herr Enns seit 2012 den INFOMOTION Standort Saarbrücken. Mitte 2017 trat er als Partner in die Geschäftsleitung von INFOMOTION ein und entwickelt gesamtverantwortlich das SAP Portfolio.
Vortrag Teilen
Diese Session fokussiert die Programmiersprache Python anhand vorgefertigter Code-Beispiele, um den Teilnehmern eine Grundlage zu schaffen, die Einsatzpotenziale und Aufwände der Sprache im Bereich Advanced Analytics besser abschätzen zu können.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
Anaconda www.anaconda.com/products/individual, um Python nutzen zu können.
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/carsten-felden/
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/claudia-koschtial/
Vortrag Teilen
With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with VaultSpeed. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald will be explained by DDVUG in a previous lecture.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
For the fictitious company Willibald, a complete data model with data is available that was created by DDVUG and provided with 13 typical challenges. In this presentation, the typical solutions are shown in VaultSpeed and combined to form a complete data warehouse. This will give you an overall impression and the opportunity to get your own comprehensive impression of the tool.
VaultSpeed provides a best-in-class data automation solution, building on the Data Vault 2.0 methodology. Enterprise customers worldwide rely on VaultSpeed to automate multi-source data integration as well as industry-specific metrics stores, on top of the integrated datasets. VaultSpeed is the default SaaS solution for companies looking to simplify the creation and maintenance of their data cloud.
VaultSpeed is headquartered in Leuven, Belgium, with offices in Seattle, USA and Vilnius, Lithuania. For more information, visit www.vaultspeed.com
Jonas De Keuster ist VP Product Marketing bei VaultSpeed. Bevor er zum Unternehmen kam, verfügte er über fast zehn Jahre Erfahrung als DWH-Berater in verschiedenen Branchen wie Banken, Versicherungen, Gesundheitswesen und Personaldienstleistungen. Dieser Hintergrund ermöglicht es ihm, dabei zu helfen, aktuelle Kundenbedürfnisse zu verstehen und Gespräche mit Vertretern der Datenbranche zu führen.
--------------------------
Jonas De Keuster is VP Product Marketing at VaultSpeed. He had close to 10 years of experience as a DWH consultant in various industries like banking, insurance, healthcare, and HR services, before joining the company. This background allows him to help understand current customer needs and engage in conversations with members of the data industry.
Auf dem Weg zur Data Driven Company ist es wesentlich messbare Mehrwerte aus Daten zu generieren.
Damit die Identifikation der dafür notwendigen Use Cases nicht nur eine einmalige Aktion im Rahmen eines Projekts wird, sollte die Kontinuität über eine organisatorische Verankerung in Form einer Data Value Factory erfolgen.
Im Vortrag stellen wir Ihnen vor welche Ansätze hierzu existieren und welche Herausforderungen überwunden werden müssen.
Markus Enderlein studierte Wirtschaftsinformatik an der Hochschule für Ökonomie und Management in Frankfurt am Main. Nach seinem Berufseinstieg 1998 bei CSC arbeitete er ab 2003 als Senior Consultant im Bereich IT-Architektur und IT-Projektmanagement bei einem mittelständischen IT-Beratungshaus. Mit seinem Einstieg in 2007 ist er seit über 14 Jahren bei INFOMOTION aktiv und unterstützt Kunden dabei, ihre "Data Performance" im Unternehmen zu steigern. Aktuell ist Markus Enderlein als Business Unit Manager für die Strategieberatung unserer Kunden bei INFOMOTION verantwortlich. Er ist regelmäßiger Sprecher auf Konferenzen und Autor zahlreicher Veröffentlichungen.
Wieso kann man nicht einfach die physischen Datenmodelle als Unternehmensdatenmodell verwenden? Wie unterscheidet sich ein Fachdatenmodell von einem Datenbankmodell? Welches Vorgehen ist notwendig, um für ein unternehmensweites Gesamtverständnis aller Unternehmensdaten zu sorgen? Und wieso kann nur das Fachdatenmodell die Grundlage für Data Governance sein?
Diese und weitere Fragen werden in diesem Workshop beantwortet und anhand eines spontanen Teilnehmer:innen-Use Cases live gemeinsam modelliert.
Outline:
Nach mehr als 10 Jahren Projektarbeit in den Bereichen BI und Data Analytics hat sich die Data Excellence-Spezialistin Lisa Parmentier in den letzten 4 Jahren insbesondere auf die Themen Data Governance und Metadaten Management spezialisiert. Seit 2020 leitet sie die Schweizer Ländergesellschaft von dataspot. und unterstützt insbesondere CDOs und CIOs dabei, ihre Projekte erfolgreich zu stemmen und Daten- und Digitalisierungsstrategien effizient umzusetzen.
Wanja Eiche ist Senior Consultant bei dataspot. Er setzt sich im Projektgeschäft mit Fragestellungen an der Schnittstelle zwischen Fachbereich und Technik auseinander und erarbeitet kundenindividuelle Lösungen. Seine Erfahrungen kommen dabei im gesamten Lebenszyklus von Metadaten und Data Governance zur Geltung, wobei er besonderen Wert auf Datenmodellierung, das Metadatenmanagement und Schulungsthemen legt.
BI or DIE Women in Data meets TDWI. Diesmal wird das von LinkedIn und YouTube bekannte Format Women in Data live auf der TDWI vertreten sein. Im gewohnten Impuls- und Diskussionsformat wird breit gefächertes Wissen rund um Data Themen vermittelt. In diesem besonderen Format sind die Impulsgeberinnen ausschließlich weiblich. Im Publikum sind Männer wie Frauen herzlich willkommen.
Sabine Schwenninger von BI or DIE führt durch den Tag und übernimmt die Moderation. Für alle die nicht live in München dabei sein können, wird es am Tag drauf alle Impulse bei YouTube zum Nachschauen geben.
Sabine Schwenninger ist Consultant bei BI or DIE. Als Ex-Controllerin kennt sie die Herausforderungen der Kunden und bereichert die Projekte um ihre Expertise. In den Workshops vermittelt sie Wissen rund um Datenvisualisierung und berät bei der Einführung unternehmensweiter Standards. Gemeinsam mit den Kund*innen erarbeitet sie prototypische Dashboards und weiß mit Tipps und Tricks bei der Umsetzung in Power BI zu unterstützen.
Veronique Schmitz ist Business Development Managerin bei BI or DIE. Seit fast 15 Jahren sind Datenanalysen und die Produktentwicklung im Umfeld Business Intelligence, Data Science und eines zentralen Data Warehouses als Controllerin, Projektmanagerin und Agile Coach ihre Themen. In Projekten bringt sie die Erfahrung im Change- und Anforderungsmanagement mit dem Wunsch der Kund:innen nach verlässlichen Analysen zusammen.
Vortrag Teilen
Data Governance bezeichnet das Framework, was Unternehmen implementieren, um die Nutzung von Daten möglich zu machen. Aber ist das wirklich nötig oder nur eine Entschuldigung, ein weiteres Tool anzuschaffen? Der Impulsvortrag leitet das Thema ein und die Diskussion liefert die Antwort: Kann es nur eine geben?
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Stefanie Kostorz ist Senior Project Managerin und auf Finanzprojekte spezialisiert. Ursprünglich als Controllerin tätig, entwickelte sie ein ausgeprägtes Verständnis für Geschäftsanforderungen und die Fähigkeit, diese in Datenanforderungen zu übersetzen. Sie ist an der Entwicklung einer völlig neuen Datenanalyselösung für die CHRIST-Gruppe beteiligt. Ihr Fokus liegt darauf, die digitale Transformation voranzutreiben. Mit ihrer Familie und Rauhaardackel Lumpi lebt sie in Menden (Sauerland).
Individuelle Datenverarbeitung (IDV) wird in Unternehmen vor allem dann eingesetzt, wenn klassische IT-Systeme zu komplex, teuer oder zeitaufwendig sind oder der Arbeitsaufwand für die IT-Abteilung zu hoch ist. In diesem Vortrag möchte ich Ihnen praxisnahe Tipps und Best Practices vorstellen, um Ihnen zu helfen, das Thema IDV zu beherrschen. Sie werden lernen, wie Sie individuelle Datenverarbeitung erfolgreich in Ihr Unternehmen integrieren und wie Sie die Sicherheit Ihrer Daten gewährleisten können.
Zielpublikum: Alle
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger
Robert Mäckle ist ein Experte im Bereich der Informationssicherheit und Principal Consultant bei der ADVISORI FTC GmbH. Er hat sich unter anderem auf Transformationsprojekte sowohl auf strategischer als auch auf operativer Ebene spezialisiert. Er verfügt weiterhin über umfangreiche Erfahrung in der Beratung von Unternehmen bei IT-Prüfungen und ist als Trainer in diesem Bereich tätig.
Robert Mäckle ist ein zertifizierter CISA, CDPSE, ISO27001 Lead Auditor and Implementer, Datenschutzbeauftragter, BSI Grundschutz Praktiker und hat eine Vielzahl von weiteren Zertifizierungen erworben.
Datenanalyse ist essenzieller Teil vieler Zentralbankaufgaben, sei es in der Analyse von Kreditportfolien im Rahmen der Bankenaufsicht oder in der Betrachtung wirtschaftlicher Zusammenhänge zur Steuerung der Geldpolitik.
In den vergangenen Jahren sind die Anforderungen in diesem Bereich stark gestiegen. Aus diesem Grund wurde die Plattform IDA auf Basis modernen Hadoop-Architektur und großzügiger Hardware-Ausstattung geschaffen. Wir präsentieren unsere Erfahrungen aus dem Aufbau der Plattform und ersten umgesetzten Anwendungsfällen.
Zielpublikum: Architekt:innen, Entscheider:innen, Technology Strategists, Personen, die Analysen in großem Maßstab bereitstellen möchten
Voraussetzungen: keine
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Agenda:
Intro IDA:
Verlauf AIDA:
Benjamin Diemann ist Product-Manager für die Plattform IDA und fokussiert sich stark auf die Betreuung der internen Kunden und die strategische Weiterentwicklung. Er hat vor seiner Tätigkeit für die Bundesbank über 10 Jahre als Berater Data Science und Machine Learning basierte Projekte umgesetzt.
Der Duisburger Hafen - als weltgrößter Binnenhafen auf dem Weg zur Data-Driven-Company. Durch eine unternehmensweite Daten- und Analyseorientierung soll die Entscheidungsfindung zukünftig stärker datengetrieben stattfinden. Der Aufbau einer modernen BI-Plattform in der Cloud soll dazu beitragen, sich zukunftssicher aufzustellen. Er bietet neben einer höheren Flexibilität, Funktionalität und Skalierbarkeit den Vorteil, möglichst viele Anwender in die datengesteuerte Zusammenarbeit und die Diskussion zu den Möglichkeiten von Daten zu integrieren.
Zielpublikum: BI-Verantwortliche, Digitalisierungsverantwortliche, Business-Analyst:innen, CIO/ IT-Leiter:innen
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Weltgrößter Binnenhafen wird 'Data-Driven-Company'
Der Duisburger Hafen steht als größter Binnenhafen der Welt vor den zentralen Herausforderungen, die sich aus der Digitalisierung ergeben. Die effiziente Auswertung der zahlreich anfallenden Datenmengen innerhalb der gesamten duisport-Gruppe ist ein wichtiger Faktor für den Unternehmenserfolg. In diesem Zusammenhang rückte das Thema Business Intelligence schon vor ein paar Jahren stärker in den Fokus und wurde im digitalen Leitbild der duisport-Gruppe nachhaltig verankert. Durch eine unternehmensweite Daten- und Analyseorientierung soll die Entscheidungsfindung zukünftig stärker datengetrieben stattfinden. Dabei geht es nicht nur um eine Entscheidung: Es geht darum, den Kontext der Daten zu verstehen, Prioritäten zu setzen und die Ursache-Wirkungs-Zusammenhänge zu finden.
Ausgangspunkt der Reise zur Data-Driven-Company war, wie bei vielen mittelständischen Unternehmen, dass sich im Laufe der Zeit Datensilos gebildet hatten und bereichsübergreifende Analysen erschwerten. So sollte mit der unternehmensweiten Einführung einer flexiblen Business Intelligence-Lösung auch eine zentrale Datenplattform geschaffen werden, die alle relevanten Daten an einem Ort zusammenführt und jedem Mitarbeitenden den Zugriff auf diese Daten und deren Analyse ermöglicht. Doch die Einführung einer solchen modernen Datenplattform stellte duisport vor neue Herausforderungen. Eine der Herausforderungen liegt darin, Mitarbeitende bei duisport dazu zu befähigen, Daten aktiv zu nutzen und die Mehrwerte der BI-Lösung aufzuzeigen. Dazu zählt insbesondere, dass durch die Optimierung von Berichten, der Benutzerfreundlichkeit und des Informationsaustausches mehr Zeit fürs Wesentliche übrigbleibt und dies zu einer höheren Wirtschaftlichkeit führt. Daher kam bei duisport eine wichtige Maßnahme besonders zum Tragen: die Etablierung einer Data Culture, um das volle Datenpotenzial im Unternehmen ausschöpfen zu können.
Die Migration und der Aufbau einer modernen BI-Plattform in der Cloud soll dabei unterstützen und dazu beitragen, dass duisport sich zukunftssicher aufstellen kann, indem auf eine flexible, kosteneffiziente und auf dem neusten Stand befindliche Lösung gesetzt wird. Die Verwendung einer Cloud-basierten BI-Lösung hat vor allem den Vorteil, Power BI besser und einfacher in die täglichen Arbeitsprozesse der Mitarbeitenden zu integrieren und somit die Nutzerakzeptanz weiter zu steigern. So sollen die datengesteuerte Zusammenarbeit, die Innovation und die Diskussion zu den Möglichkeiten von Daten bei duisport stärker fokussiert werden. Diese Entwicklung soll Mitarbeitenden bei duisport ein Werkzeug an die Hand geben, mit dem sich datengetriebene Herausforderungen noch besser meistern lassen.
Data2Value - ein Praxisbeispiel
Ein gelungenes Beispiel hierfür sind bereichsübergreifende, einfach zugängliche und benutzerfreundliche BI-Berichte zu Auswertungen der historischen/aktuellen Pegelstände und Prognosewerte des Rheins nicht nur am Standort Duisburg, sondern auch an noch weiteren wichtigen Messstellen, wie beispielsweise Köln und Düsseldorf. Durch die Verknüpfung mit weiteren Datenquellen, wie Umschlagleistungen und Verkehrsdaten von Bahn und Schiff, können die Auswertungen dazu beitragen, dass durch eine verbesserte Planung mehr Güter mit Bahn und Schiff transportiert werden können. Das Ziel ist es daher, die Verkehrssituation frühzeitig zu erkennen und vorherzusagen.
Heute Daten analysieren, um zu wissen, was morgen wichtig ist
Zahlreiche Informationsquellen für BI und deren Kombination werden dabei helfen, wichtige Handlungsimpulse frühzeitig zu bekommen. Aus der steigenden Menge an Daten, die täglich verwaltet wird (z. B. Kransensorik, Wind- und Wetterdaten sowie Umweltdaten), gilt es, verwertbare Erkenntnisse zu gewinnen. Und das nicht nur mittels klassischer BI, sondern auch mittels fortgeschrittener Analysemethoden, um Trends und Muster zu erkennen. Der Schritt in die Cloud bietet duisport dabei flexible Lösungen, um die Architektur dahingehend zu erweitern. Aber auch eine hohe Kerneigenleistung ist entscheidend auf dem Weg zu einer Data-Driven-Company. Um das Datenbewusstsein immer stärker in der Unternehmenskultur zu verankern, braucht es weiterhin jegliche Unterstützung aller unternehmensrelevanten Fachbereiche und die kontinuierliche Ausrichtung der BI-Plattform an den Unternehmenszielen. Denn letztlich geht es um nicht weniger als das Zukunftsbild für eine datengesteuerte Organisation.
Stephanie Starke verantwortet als Projekt-Managerin - Data & Analytics alle BI-Aktivitäten in der duisport-Gruppe und hält die Fäden in der Hand. Zu den wesentlichen Aufgaben gehört die Umsetzung der definierten BI-Strategie und damit die fortlaufende Sicherstellung des Geschäftsnutzens aller BI-Initiativen. Zuvor studierte sie Business Analytics (M.Sc.) und sammelte neben ihrem Studium Berufserfahrungen bei einer großen Beratungsgesellschaft in Hamburg und Düsseldorf.
Florian Grell has over 6 years of experience in the business intelligence environment. His focus was on Microsoft BI software in the cloud environment at an early stage. In his role as Managing Director Microsoft, he continues to drive the development and expansion of Modern Data Platform / Modern Data Stack Solutions at areto. He brings his many years of expertise in the area of Azure and data analysis to the table.
Die Data Mesh Konzeption ist in aller Munde. Sie verspricht durch eine dezentrale Verantwortung über fachliche Datendomänen und ihre jeweiligen Datenprodukte eine bessere Skalierung. Data Mesh steht damit diametral zu vielen eher zentralistisch geprägten Organisationsstrukturen und damit häufig verbundenen Architekturkonzeptionen für analytische Systeme, die in der Vergangenheit propagiert wurden. Eine föderale Data Governance soll in der Data Mesh Konzeption für Harmonisierung und Standardisierung bei größtmöglicher Flexibilität und Unabhängigkeit sorgen.
Wie immer besteht zwischen der Realität und der idealistischen Welt der Folien und Marketing-Botschaften eine große Diskrepanz. Daher wollen wir die Anwender zu Wort kommen lassen. In einer Diskussionsrunde mit Praktikern werden entlang von Diskussionsthesen die Erfolgsfaktoren und Stolperfallen einer föderalen Data Governance innerhalb der Data Mesh Konzeption erörtert. Dabei werden wir uns auch der Frage widmen, welche Aufgaben der Data Governance dezentral in den Fachbereichen gelöst werden können und welche zentral vorgegeben werden müssen und somit den Rahmen vorgeben?
Dr. Carsten Dittmar ist Partner und Area Director West bei der Alexander Thamm GmbH. Er beschäftigt sich seit über 20 Jahren intensiv mit den Themenfeldern Business Analytics, Data Science und Artificial Intelligence mit dem Fokus auf strategische und organisatorische Beratung von datengetriebenen Vorhaben. Carsten Dittmar ist europäischer TDWI Fellow und Autor diverser Fachpublikationen und Referent bei zahlreichen Fachveranstaltungen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/carsten-dittmar/
Dr. Christian Fürber ist promovierter Datenqualitätsexperte und Geschäftsführer der Information Quality Institute GmbH (iqinstitute.de), einem spezialisierten Beratungsunternehmen für Data Excellence und Data Management Lösungen. Vor der Gründung von IQI im Jahr 2012 war er in verschiedenen Positionen im Datenmanagement tätig. Unter anderem etablierter er für die Bundeswehr eine der ersten Data Governance Organisationen und führte dort ein standardisiertes Datenqualitätsmanagement ein. Christian und sein Team haben unzählige Datenprojekte und -strategien für bekannte Unternehmen verschiedener Branchen erfolgreich umgesetzt und ihnen dabei geholfen, erheblichen Mehrwert aus ihren Daten zu ziehen. Neben seiner Tätigkeit bei IQI ist Christian auch Autor und Redner auf Konferenzen (u.a. am MIT) und organisiert den TDWI Themenzirkel "Data Strategy & Data Governance".
Michael Kolb ist seit 14 Jahren im Business Intelligence-Umfeld tätig - davon seit über 8 Jahren als BI-Projektleiter und BI-Architekt im BICC der HUK-COBURG. Seit zwei Jahren begleitet er die Themen Data Cataloging und Data Governance im Kontext des erweiterten Daten-Ökosystems der HUK-COBURG.
Vortrag Teilen
Daten sind das neue Gold” ist schon seit längerem ein Schlagwort oder eine eingängige Phrase. Und obwohl dies sicherlich stimmt, ist es wesentlich schwieriger, das Potenzial von Daten zu nutzen als das von Gold. Unternehmen sitzen auf Bergen von Daten, die sie oft kaum für ihre eigenen Zwecke nutzen, und schon gar nicht mit anderen Unternehmen teilen, um einen zusätzlichen Nutzen zu erzeugen. Die Gründe hierfür sind vielfältig und oftmals organisatorisch, rechtlich, technischer Natur.
In diesem Talk werden wir zeigen, wie Gaia-X helfen kann, diese Hürden zu überwinden, indem wir aktuelle Use-Cases aus dem Projekt Marispace-X diskutieren.
Zielpublikum: Decision Makers, Data Owners
Voraussetzungen: Ein grundlegendes Verständnis von Data Governance wäre hilfreich.
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die maritime Welt basiert auf Daten. Große Infrastrukturprojekte wie Windparks, Unterseekabel und Pipelines benötigen riesige Mengen an Daten für die Planung, den Bau und die Wartung. Leider bleiben viele, bereits existierende, Datensätze unbenutzt oder sind von vornherein nicht zugänglich. Oft liegt dies an dem Aufwand, sie regelkonform zu teilen bzw. darauf zuzugreifen. Wenn es um die gemeinsame Nutzung von und den Zugriff auf kommerzielle Daten innerhalb der EU geht, ist die derzeitige Landschaft durch technische, rechtliche und organisatorische Hindernisse gekennzeichnet, die eine effektive Zusammenarbeit zwischen Unternehmen erschweren.
Dabei sitzen viele Unternehmen auf einem Berg an wertvollen Daten. In diesem Vortrag erläutern wir, wie Gaia-X dazu beitragen kann, diese Daten gewinnbringend zu nutzen und dabei viele Risiken und Reibungspunkte zu vermeiden.
Gaia-X ist eine europäische Initiative, die darauf abzielt, diese Hindernisse zu beseitigen und den Datenaustausch einfacher, sicherer und effizienter zu gestalten. Dieser Vortrag wird einige der Konzepte von Gaia-X einem breiteren Publikum näherbringen.
Anhand von realen Use-Cases aus dem Projekt Marispace-X (IoUT, Offshore-Wind, Munition im Meer, biologischer Klimaschutz) werden wir zeigen, welche Vorteile Gaia-X in diesem Szenario bieten kann und wie es dazu beitragen kann, die Herausforderungen des Datenaustauschs zu überwinden und die Zusammenarbeit und Innovation zu verbessern.
Nach diesem Vortrag wissen Sie mehr über Windparks, das maritime Daten-Ökosystem, Gaia-X und wie gemeinsame Daten zu einem Gewinn werden können.
Lars Francke has been involved in the OpenSource space since 2009. He's mainly focused on the Big Data ecosystem and has been a contributor and committer to various projects like Apache HBase or Apache Hive. He is also an Apache Foundation member and speaker at conferences about technical as well as community topics.
Lars co-founded two startups so far: OpenCore which focuses on consulting and Stackable (the GAIA-X member). He's currently serving as the CTO for Stackable.
Lars is 41 years old and lives with his girlfriend and two small children in northern Germany.
Sarah Gebauer is 31 years old, born in Kiel, therefore inevitably linked to the sea, and works at north.io as a project manager. Sarah is responsible for the research projects at north.io, which include Marispace-X among others. On the side, she is currently finishing her Master's degree in IT Management and will graduate this autumn. She has a strong background in digitalization due to her nine years at one of the largest logistic companies in northern Germany, where she lead several digitalization-projects.
Diese Session vermittelt die Unterschiede zwischen Data Mining und Text Mining, so dass auch hier die Teilnehmer in der Lage sind, diese zu erkennen und in eigenen Projekten zu berücksichtigen. Während der Session zeigen wir ein kleines Code-Beispiel, so dass der Eindruck für den Aufwand vermittelt wird.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
Rapidminer rapidminer.com (falls Sie kein Rapidminer Account anlegen möchten, suchen Sie bitte im Web nach der Version 5 und installieren Sie diese nach Download auf Ihrem Rechner. Bedenken Sie dann aber bitte, dass in der Software teilweise alternative Abläufe zu beachten sind.)
Zielpublikum: Grundsätzlich ist das Data-Science-Boot Camp für alle Vertreter aus fachlichen, analytischen und technischen Unternehmensbereichen offen. Allerdings spricht es eher Interessierte an, die mit diesem Thema noch wenig Berührung hatten.
Voraussetzungen: Grundlegende Kenntnisse zu Business Intelligence
Schwierigkeitsgrad: Einsteiger
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/carsten-felden/
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/claudia-koschtial/
Vortrag Teilen
With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with WhereScape Data Vault Express. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald will be explained by DDVUG in a previous lecture.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
For the fictitious company Willibald, a complete data model with data is available that was created by DDVUG and provided with 13 typical challenges. In this presentation, the typical solutions are shown in WhereScape and
combined to form a complete data warehouse. This will give you an overall impression and the opportunity to get your own comprehensive impression of the tool.
WhereScape Data Warehouse Automation software solves one of IT’s biggest problems: how do I build a Data Warehouse with efficiency, reduced risk, and long-term viability?
Using automation, templates, and built-in intelligence, WhereScape increases architect and developer productivity, provides scalability with standards and allows you to take control of your own data whilst fostering collaboration between IT and the business.
With its breadth of technical support, including virtually every source, target, and design methodology, WhereScape helps you design, develop, deploy, and operate your Data Vault (or any other data architecture) at speed with ease.
Create raw vaults, business vaults, and star schema in just a few minutes and realise the performance and quality improvements by reducing hand-offs, tool changes, and other pitfalls of hand-written or partially-automated development efforts.
Dr. Sultan Shiffa is a senior solutions architect at WhereScape, helping customers and partners to maximise their use of WhereScape across a broad range of target database platforms, modelling styles and design patterns. Previously he worked within Enterprise Data Management at IDERA, as an expert for complex and diverse data management solutions and methodologies. The two decades before that he worked as an Oracle Certified Professional (OCP) DBA and database consultant.
As the Operations Director at WhereScape, Simon Spring is dedicated to developing the product roadmap and meeting the demands of customers and partners in the constantly evolving data warehousing and analytics landscape. Trained in software engineering and with a wealth of experience in successful analytics projects spanning multiple technologies and industries, Simon combines his passion for technology and automation with his commercial background in software sales and professional services, bringing a distinctive outlook to the realm of Data Warehouse Automation.
Thomas Heuer, based in Germany, is an experienced business and communications professional in the field of IT / Business Intelligence. His background in channel & direct sales at Sony and Samsung gives him a distinct perspective on the IT industry. Thomas is a strong proponent of automation and helps his clients unlock the full potential of their data. As Sales Director EMEA he has a thorough knowledge of the benefits that data warehouse automation can bring to businesses of any scale, and he is dedicated to assisting his clients in achieving their objectives and advancing their organizations.
Vortrag Teilen
Voraussetzungen: Awareness of what integration is. But not a must.
Schwierigkeitsgrad: Beginner/Entry-Level
Sebastian Flach ist Senior Strategic Account Executive bei SnapLogic. In den letzten 10 Jahren im Applikations- und Middleware-Business war Sebastian für verschiedene DAX-Konzerne sowie als Global Account Executive für Volkswagen tätig und betreut seit 5 Jahren Enterprise-Unternehmen in unterschiedlichen Industrien speziell im iPaaS und API LCM Umfeld. In früheren Tätigkeiten war Sebastian bereits für Training und softwarenahe Dienstleistungen verantwortlich.
Der Impulsvortrag geht am Beispiel von congstar und Pyramid Analytics darauf ein, wie Dashboard Standards den Weg zur Data Driven Company ebnen können. In der anschließenden Diskussion werden wir das Thema weiter vertiefen.
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Janine Ellner ist als Lead Consultant für OPITZ CONSULTING Deutschland GmbH im Bereich Analytics tätig. Hier liegt ihr Schwerpunkt auf der ganzheitlichen Betreuung des Kunden. Dies umfasst die Analyse von Anforderungen, die Unterstützung bei fachlichen Fragestellungen sowie die Weiterentwicklung von DWH-Systemen. Ihr besonderes Interesse gilt Data-Culture-Themen sowie innovativen Technologien und modernen Analytics-Werkzeugen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/janine-ellner/
Daten können sich positiv auf alle Versicherungsprozesse auswirken - vom Underwriting, der Preisgestaltung, der Risikoprüfung und der Rückversicherung bis hin zur Kuratierung persönlicher Empfehlungen und anderen strategischen Marketingentscheidungen. Bislang wird von diesen Möglichkeiten aber nur begrenzt Gebrauch gemacht. Wir zeigen Möglichkeiten und Grenzen des Einsatzes von (externen) Daten im Versicherungsbereich sowie konkrete Use Cases aus verschiedenen Versicherungssparten.
Externe Daten liefern viele zusätzliche oder aktualisierte Erkenntnisse und eröffnen damit neues Geschäftspotenzial.
Zielpublikum: Versicherungsfachleute, Data-Analyst:innen, Innomanager:innen, Produktentwickler:innen
Voraussetzungen: Grundlagen Versicherung
Schwierigkeitsgrad: Fortgeschritten
Markus Gützlaff hat mehr als 20 Jahre Erfahrung in der Beratung und Prüfung von Erst- und Rückversicherungsunternehmen mit Schwerpunkt auf den europäischen, südostasiatischen und afrikanischen Versicherungsmärkten. Er ist derzeit Client Data Analytics Deutschland.
Data Mesh erobert die Datenwelt im Sturm, obwohl das wegweisende Architekturkonzept in der Reinform für die meisten IT-Abteilungen noch nicht praktikabel ist. In verschiedenen Ausbaustufen der Dezentralisierung kann der Ansatz aber auch heute schon zu einer deutlich effizienteren Datennutzung in Unternehmen beitragen.
Jens Kröhnert stellt Ihnen anhand von Praxisbeispielen die wichtigsten Entscheidungskriterien für unterschiedliche Data Mesh-Ausprägungen vor. Ausgangspunkt bilden dabei Full-, Governed- und Hybrid-Varianten.
Zielpublikum: Data Engineers, Data Architects, Projektleiter:innen, Entscheider:innen
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger
Jens Kröhnert verfügt über langjährige Erfahrung in der Planung und Umsetzung von Digitalisierungsprojekten. Als Innovationsexperte hat er für ORAYLIS immer die neuesten Technologien und Entwicklungen im Blick.
The theory of a data flywheel in consumer IoT devices is simple. However, implementation is challenging and realising sustainable value from it is even harder. This talk will outline our journey with IoT appliances at Miele, and how we are combining the power of IoT and AI to drive continuous improvement and shape the next generation of appliances.
Target Audience: Product Owners, Decision Makers, AI & Data Leaders/Strategists, Data Scientists
Prerequisites: None - I will break it down to understandable pieces
Level: Basic
Florian Nielsen is Director of AI & Data in the Smart Home/Electronics division at Miele & Cie. KG, the premium home appliance manufacturer. The main challenge is to help leading a manufacturing company through digital transformation by building AI & Data capabilities to infuse decision making with data and manoeuvre the company towards a mastery of data-driven product development.
Anbindung von mehr als 30 Fabriken weltweit mittels Self-Service Tools unter Beachtung von ISO-Standards zur Konsolidierung und Analyse der Daten. Reduzierung der Implementierungszeit von durchschnittlich mehr als 6 Monaten auf weniger als 2 Wochen pro Fabrik.
Zielpublikum: Projektmanager:innen, Data Engineer, Business User
Voraussetzungen: keine, Grundverständnis von Datenverarbeitung nicht von Nachteil
Schwierigkeitsgrad: Einsteiger
Markus Dörnhöfer ist ein ergebnisorientierter Elektroingenieur mit Fachkenntnissen in der Automatisierungstechnik und nachgewiesener Erfahrung im Produktmanagement und in der Anwendungstechnik. Er ist in der Lage, technische Lösungen zu implementieren, Anforderungen zu erfassen und zu priorisieren sowie hervorragenden technischen Support zu leisten.
Alexander Gross ist studierter Informatiker, der aktuell als lösungsorientierter Automatisierungs- und Daten-Experte bei M2 arbeitet. Er publizierte zwei Bücher zur Mathematik des 16. Jahrhunderts. Er leitet die deutsche Alteryx User Group und ist einer von zwei deutschen Alteryx ACEs.
Das Bundesministerium für Finanzen (BMF) leistet alle operativen Prozesse der Finanzverwaltung und hat daher umfassende Daten über alle Geschäftsfälle. Die Data Governance Plattform Austria schafft nun die Basis für ein fachliches Verständnis dieser Daten für alle Datennutzer:innen, das durch Data Stewards bereitgestellt wird. Gleichzeitig bildet sie die Grundlage für die technische Implementierung im zentralen DWH bis hin zur DWH Automation. Nur durch konsequente Awarenessbildung war dieses Projekt möglich und die Anstrengung geht noch weiter.
Zielpublikum: Data Governance Manager, DWH-Verantwortliche, IT-Projektleiter:innen
Voraussetzungen: Grundwissen im Bereich von Reporting & DWH
Schwierigkeitsgrad: Einsteiger
Leiter der Applikation Controlling- und Managementinformationssysteme des BMF
Alexander Franz verantwortet als Applikationsleiter im Bundesministerium für Finanzen den großen Datenschatz im Zollwesen der Republik Österreich. Sein unermüdlicher Einsatz zum Thema Data Governance hat dazu geführt, dass das BMF nun eine Data Governance-Grundlage für viele Ministerien und öffentliche Organisationen geschaffen hat.
Alois Caraet bildet die Brücke zwischen der IT-Welt im Bundesrechenzentrum und dem Fachbereich im Bundesministerium für Finanzen. Mit seinem Datenverständnis und einem breiten fachlichen Wissen legt er den inhaltlichen Grundstein für Data Governance im BMF.
Vortrag Teilen
A traditional Swiss railway company that operates train connections throughout the alps. Swisscom implemented a modern analytics platform based on Microsoft Azure to integrate vast amounts from technical and commercial sources. Among other use cases, the customer can now predict the arrival times of their trains in near-real time. The platform is based on a loosely-coupled architecture consisting solely of native PaaS services and leverages modern IaC capabilities to fully automate the deployment.
Target Audience: Business Decision-Makers, Architects, Data Engineers, and people from the transportation industry
Prerequisites: Basic understanding of data & analytics platforms
Level: Advanced
Tim Giger is an experienced developer, architect, and project manager with over eight years of experience in the data management consulting industry, and with a variety of technologies (SAP, Microsoft, Open Source, Cloudera) in various industries. Proven expert and speaker at Big Data conferences as well as a lecturer for Data & Analytics at the Zurich University of Applied Sciences for Business (HWZ).
Matthias Mohler is a result-oriented leader and consulting practice manager with 15+ years of experience in the technology industry. Proven track record in line management and project management. Successfully delivered projects and advisory mandates with responsibility for people, budget, and scope. Experience includes assignments for national and international clients in many industries. Holder of an MBA, certificates of advanced studies (IT management, leadership), a college degree in business information systems, and several professional certifications in technology (SAP, Microsoft, AWS) and methodology (e.g. PMP, TOGAF, ITIL). Lecturer at the University of Applied Sciences in Business Administration Zurich (HWZ) and the Lucerne University of Applied Sciences (HSLU).
Being well informed about tools and their capabilities is one thing, but what can I expect when I embark on data warehouse automation?
We have three experts with very different experiences and three completely different approaches who will talk about implementation, reasoning, development speed, costs/benefits, metadata and lessons learned in this panel discussion.
Andreas Buckenhofer arbeitet bei Mercedes-Benz Tech Innovation in Ulm als Lead Expert 'Vehicle Data Platforms'. Er verfügt über langjährige Erfahrung in der Entwicklung datenintensiver Produkte. Seine Schwerpunkte dabei sind insbesondere Datenarchitektur, Datenspeicherung, Datenintegration und Datenqualität.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/andreas-buckenhofer/
Michael Kwiatkowski - Head of Data & AI at Volkswagen Commercial Vehicles. Together with his Team they had been early adaptors of Data Vault Automation Solutions within the Volkswagen Group.
Together with his Team they had been early adaptors of Data Vault Automation Solutions within the Volkswagen Group.
Oliver Grohmann - IT Staff Data Engineer at ams OSRAM - IT Data Analytics
As an IT Staff Data Engineer at ams OSRAM Oliver Grohmann is responsible for the Enterprise Data Model in the Cloud Data Warehouse. In the IT Data Analytics team he supports the setup and evolution of the Cloud Data Platform as well as the definition of implementation standards and best practices.
Christian Hädrich ist BI-Spezialist und unterstützt seit über 20 Jahren Unternehmen bei der Entwicklung von dispositiven Anwendungen und Data Warehouses. Durch seinen Mainframe-Hintergrund ist er häufig bei großen Unternehmen wie Versicherungen und Banken tätig. Neben der Implementierung liegt der Schwerpunkt seiner Arbeit in der Architektur- und Prozessberatung. Seit 8 Jahren beschäftigt er sich intensiv mit den Themen DWH-Automatisierung und Data Vault. Er ist Mitglied im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V.
Michael Müller ist seit mehr als 20 Jahren im BI-Bereich tätig. Seine Schwerpunkte liegen in den Bereichen Datenmodellierung und Datenarchitektur sowie Data Vault, DWH-Automatisierung und Einbettung von BI im Unternehmen. Derzeit ist er im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V. tätig.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/michael-mueller/
Vortrag Teilen
Der Anspruch der Unternehmen an die Datenanalyse steigt stetig. Das benötigt einerseits immer mehr und aktuellere Daten, andererseits aber auch eine hohe Fach- bzw. Branchen-Kenntnis. Daher muss eine moderne Datenarchitektur den fachlich orientierten Datenanalysten einen einfachen und agilen Umgang mit Daten ermöglichen. Wie aber kann das gelöst werden, wo doch die IT-Systeme immer komplexer und heterogener werden? Jan Ulrich Maue, Senior Sales Engineer bei Denodo, zeigt am Praxisbeispiel ESG-Reporting, wie dieser Spagat mit einer Domain-orientierten Datenarchitekturen effizient und zukunftssicher gelöst werden kann.
Voraussetzungen: Grundkenntnisse Datenarchitektur
Schwierigkeitsgrad: medium
Jan Ulrich Maue ist Senior Sales Engineer bei Denodo Technologies. In dieser Funktion berät er Kunden zu komplexen Datenmanagement- und Datenintegrationsprojekten und führt Proof of Concepts in der Region Zentral- und Osteuropa. Jan Maue bringt ein breites Spektrum an Branchenkenntnissen mit, darunter Business Intelligence, Datensicherheit und -speicherung, und verfügt über mehr als zwei Jahrzehnte Erfahrung im Bereich Pre-Sales und Consulting.
Wir beschäftigen uns mit häufigen Fehlern, die bei der Arbeit mit Daten passieren können. In dem Vortrag werden fünf grobe Datenpannen vorgestellt und erläutert, wie man diese vermeiden kann. Dabei geht es nicht nur um technische Fehler, sondern um Fehler in der Datenanalyse und der Interpretation von Daten. Der Vortrag richtet sich an alle, die mit Daten arbeiten, sei es im beruflichen oder privaten Kontext, und soll dazu beitragen, dass man Daten korrekt und effektiv nutzen kann, ohne dabei Fehler zu machen.
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Dilyana Bossenz ist Trainerin für Data & AI Literacy bei BI or DIE. Sie ist Dozentin für Datenvisualisierung an der Digital Business University in Berlin.
Sie verfügt über mehrjährige Erfahrung als BI-Beraterin bei Good Healthcare Group GmbH, Ceteris AG und M2.technology & project consulting GmbH. Gleichzeitig war sie bei M2 in leitender Position als Enablement Managerin tätig. Ihre Aufgabe war es, dafür zu sorgen, dass sowohl Kunden als auch Mitarbeiter:innen den richtigen Umgang mit Daten erlernen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/dilyana-bossenz/
ESG-Risiken (Environment, Governance, Social) rücken in den Fokus der Bankenregulatorik. Welche Bank weiß heute, welche Kreditobjekte in einer wettergefährdeten Region liegen? Wie viel CO2 stoßen die finanzierten Fahrzeuge aus? Es gilt, neue externe Datenquellen teils unbekannter Qualität anzubinden, unstrukturierte Daten aufzubereiten und zu analysieren. Ohne KI und Natural Language Processing kaum leistbar. Wie kann eine proaktive Strategie der Banken-IT aussehen? Wo sind Hürden? Welche Best Practices und Erfahrungen gibt es bereits?
Zielpublikum: Projektleiter:innen, CDO, Data Engineer, Data Scientist
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Chancen und Risiken aus den Bereichen 'Environment, Social and Governance' (ESG) werden für Finanzinstitute immer wichtiger. Die regulatorischen Anforderungen an Bewertung und Offenlegung der ESG-Risiken steigen kontinuierlich. Die Aufnahme in das Risikomanagement ist auch wirtschaftlich essenziell.
Für die Banken-IT bedeutet dies die Integration und Verarbeitung neuer Daten bisher unbekannter Art und Qualität. Heterogene, oft unstrukturierte Daten mit hoher Granularität müssen zu ESG-Kennzahlen verdichtet werden: Beispiele sind Kataster, Wetterdaten, geologische und topografische Informationen, Satellitenbilder, Zertifikate und Energieausweise. Analyse und Forecast sind ohne Big Data, KI und Natural Language Processing kaum leistbar. Gleichzeitig ist die IT selbst Objekt der Analyse und ein ESG-Nachhaltigkeitsfaktor.
Wir stellen einen proaktiven Lösungsansatz vor und teilen mit Ihnen Erfahrungen und Best Practices aus Kundenprojekten.
Sonja Maria Lehmann beschäftigt sich seit 1996 mit Business Intelligence und Data Analytics. Nach einer Tätigkeit als Referentin für Wirtschafts- und Unternehmensethik sowie Führungspositionen in verschiedenen Kreditinstituten und Consultingunternehmen gründete sie 2003 die solecon GmbH. Sie berät Unternehmen und hält Seminare und Workshops zu Nachhaltigkeit, Sustainable Business Transformation, Unternehmensethik, Corporate Digital Responsibility und KI.
Ralf Penndorf ist seit Januar 2010 Vorstand der CURENTIS AG. CURENTIS ist ein auf Anti-Financial Crime, Sustainable Finance und Bankenregulatorik spezialisiertes Consultingunternehmen. Bis Ende 2009 war Ralf Penndorf 3 Jahre Vorstand der FERNBACH Software AG und 6 Jahre Geschäftsbereichsleiter Banken bei ALLDATA SYSTEMS mit der Zuständigkeit für das Core Banking.
Vortrag Teilen
For large organizations, the challenges of enterprise-level data management are manifold. Leftovers of various integration / decentralization exercises and sourcing initiatives, system components of all kinds (DHWs, ODSs, data lakes and mixed forms), a complex mesh of central and decentral governance and ownership. Data Mesh and Data Platform promise to solve problems of complexity, heterogeneity, and efficiency. Supported by the Data Management & Analytics Community (DMAC), we studied status quo and plans in ten large companies.
Target Audience: CDO/CIO, Senior Analytics Management, Senior Data Management (especially in larger organizations)
Prerequisites: none (general awareness of enterprise-level, cross-solution data management challenges)
Level: Advanced
Robert Winter, University of St. Gallen (HSG), Switzerland is a full professor of business & information systems engineering and director of HSG's Institute of Information Management. He is also founding director of HSG's Executive MBA program in Business Engineering. His main research interests are design science research methodology and enterprise-level IS management topics such as architectural coordination, governance of digital platforms, governance of enterprise transformation, and enterprise-level data management. Since more than ten years, Robert Winter and Stephan Aier organize HSG's Data Management & Analytics Community (DMAC), a cooperation format of large companies to discuss good practices of enterprise-level data and analytics management.
Im Gegensatz zu anderen Sportarten werden im Basketball bereits seit Jahren einfache statistische Analysen genutzt. Die Weiterentwicklung dieser Analysen soll helfen, Spiel-, Spieler- und Team-Koordination entscheidend zu verbessern. Nur wenn das Team als Ganzes funktioniert und ein Plan zur Vorbereitung auf den nächsten Gegner ausgearbeitet ist, kann eine Performance erreicht werden, die auf nationaler und internationaler Ebene ausreichend für die Ansprüche eines europäischen Spitzenteams ist.
Zielpublikum: Geschäftsführer:innen, BI-Analyst:innen, IT-Verantwortliche, Sport-Interessierte
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
In diesem Vortrag zeigen wir, welche neuen Daten und Advanced Analytics der FC Bayern Basketball zusätzlich einsetzt,
Jens Leutenecker (36) arbeitet seit der Saison 2020/21 beim FC Bayern Basketball als Analytics Coordinator.
Er begann seine Karriere als Video Analyst bei den MHP Riesen Ludwigsburg während des Studiums der Sportpublizistik (Universität Tübingen) und arbeitete später als Assistenztrainer bei den WALTER Tigers Tübingen in der Bundesliga.
Während seines Head Coach Engagements in Fellbach (1. Regionalliga) und der Tätigkeit als Live-Analyst für Brose Bamberg, gründete er sein Analytics Start up Basketball Momentum, das sich auf die präzise Bemessung von Basketball-Daten für Wettanbieter spezialisiert hat.
Wolfgang Perzl hat Informatik mit Nebenfach Wirtschaftswissenschaften an der Technischen Universität München studiert. Der Dipl.-Informatiker startete seine berufliche Laufbahn beim Datenbankhersteller Informix Software und kam über mehrere technische und internationale Managementpositionen unter anderem bei der späteren Ascential Software zur IBM Deutschland.
Nach weiteren Stationen gründete Wolfgang Perzl 2013 schließlich die infologistix GmbH als unabhängige IT-Consulting-Firma mit den Schwerpunkten Data Warehousing und BI. Als Geschäftsführer führt er gemeinsam mit René Schiebeck das operative Geschäft der infologistix und verantwortet die Bereiche Personal, Marketing und Business Development/Big Data.
Auf den Punkt kommen - das ist es, wofür Dashboards da sind!
Genauso wie ein guter Witz sollte ein Dashboard nicht erklärt werden müssen, sondern schnell zu verstehen sein.
Genau das testen wir live im Dashboard Karaoke:
Sind Personen, die ein Dashboard zum ersten Mal sehen, in der Lage, die Kernaussagen und Informationen schnell zu erfassen? Oder können sie es nicht und das Dashboard ist einfach schlecht?
Live & Unplugged im Self-Service-Track @TDWI München
Artur König ist Informatiker mit dem Schwerpunkt im Bereich Datenanalyse und Gründer sowie Geschäftsführer der platformimpulse GmbH, einer Firma der BI or DIE Gruppe.
Er verantwortet die ganzheitliche Umsetzung von Datenprodukten von der Datenquelle bis zum fertigen Dashboard im Microsoft-Umfeld.
Als ehemaliger Dozent hat Artur zudem einen Fokus auf dem nachhaltigen internen und externen Wissenstransfer zu Microsoft Power BI und angrenzenden Themen.
Zuvor war er über 12 Jahre als Berater im IT-Audit, in Softwareprojekten, in der Umsetzung von Reporting-Lösungen bei Unternehmen verschiedener Branchen und Größen sowie als Leiter des BI-Bereichs bei einem mittelständischen Softwareunternehmen tätig.
Artur ist aktiv in der Power BI und Daten-Community als Podcaster, YouTuber, Betreuer von Meetups und dem TDWI-Themenzirkel Self-Service & Analytics, Sprecher bei Events und Buchautor.
In den letzten 16 Jahren spezialisierte sich Philipp Baron Freytag von Loringhoven auf die Unterstützung von Unternehmen bei der Entwicklung effektiver Werbekampagnen mithilfe von Daten und Marketing-Analytics. Er leitete internationale Marketing- und Data-Teams für Start-ups und Unternehmen. Als Freelancer hilft er Firmen bei einer Nutzung ihrer Daten, die zu weiterem Marketing- und Sales-Erfolg führt. Philipp möchte durch und dank Daten wieder bessere, interessantere Werbung sehen. Werbung, die begeistert, die anspricht. Deshalb betreibt er seit 2020 auch den Podcast Dataengage, um mehr Menschen den Zugang zu Daten, Technologie und Marketing zu ermöglichen.
Vortrag Teilen
Bürkert konzentriert sich auf Lösungen für das Messen, Steuern und Regeln von Gasen und Flüssigkeiten. Seinen 3000 Mitarbeiter steht eine umfangreiche BI- und Analytics-Umgebung zur Verfügung (operative Analytics, BI Stack, Self-Service Analytics, Process Mining, Advanced Analytics). Der Vortrag beschreibt, wie die Umgebung strukturiert ist, welche Technologien warum angewandt werden und wie die Umgebung von einem 5-köpfigen Team betreut und weiterentwickelt wird.
Zielpublikum: BI- & Analytics-Verwantwortliche
Voraussetzungen: Grundwissen über BI & Analytics
Schwierigkeitsgrad: Einsteiger
Lars Iffert befasst sich mit den Themen Datenmanagement (Architekturen, Datenintegration, Datenqualität, Data Governance), Business Intelligence und Advanced Analytics. Als Analyst und Berater erstellte er Research und wirkte in Strategie- und Technologe-Projekten. Im Bürkert Team unterstützt er sowohl den operativen Betrieb als auch die strategische Weiterentwicklung der BI- und Analytics-Landschaft.
Die Überwachung einer Fertigungsanlage und Erhebung kritischer Kennwerte mithilfe von Sensoren ist der Klassiker der IoT. Doch wie startet man ein solches Projekt? Welche Komponenten benötigt man und wo kann bzw. soll die Reise hingehen?
Ein Erfahrungsbericht vom Aufbau einer Datenpipeline 'from scratch'. Vom Aufsetzen einer ersten einfachen Datenbank bis zur Echtzeitstreaming-Plattform. Von der Synchronisierung verschiedener Sensoren bis zur Datentransformation als Basis zur KI-Überwachung und Optimierung des Fertigungsprozesses in Echtzeit.
Zielpublikum: Data Engineer, Data Scientist, MLOps Engineer, Projektleiter:innen, Entscheider:innen, ...
Voraussetzungen: Interesse an Predictive Maintenance, IoT, Echtzeitsignalverarbeitung, Machine Learning
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
In dieser Session erzählen wir euch von unseren Erfahrungen bei der Umsetzung eines IoT-Predictive Maintenance-Projekts 'from scratch'.
Wir starten mit dem Aufsetzen eines verteilten Sensorsystem zur Überwachung einer Fertigungsanlage. Fundamentale Herausforderungen sind hier die Synchronisierung der verschiedenen Sensoren sowie der Transfer der Daten in Echtzeit.
Die Sensoren produzieren täglich Hunderte Gigabyte an Daten, welche es in Echtzeit aufzubereiten, zu analysieren und zu speichern gilt. Dies ermöglicht uns die Echtzeitauswertung der Daten mithilfe von Machine Learning-Verfahren. Die Ergebnisse können direkt als Feedback in den Produktionsprozess einfließen und erlauben die Optimierung des Prozesses in Echtzeit.
Unser modularer und skalierbarer Ansatz ermöglicht dabei die einfache Einbindung zusätzlicher Sensoren sowie Datenverarbeitungsschritte.
Unser Tech-Stack: Apache Kafka, Apache Spark, Apache Cassandra, Python, FastAPI, Precision-Time-Protocol, Grafana
Stephan Brehm (Dr. rer. nat. Machine Learning & Computer Vision) forschte über Jahre im Bereich des maschinellen Sehens unter Einsatz modernster Deep-Learning-Techniken. Inzwischen setzt er die erworbene Erfahrung als MLOps Engineer beim Management von Daten von der Erhebung bis zur Verwertung ein.
Benedikt Hofbauer (M.Sc. Biology) sammelte als Neurobiologe über Jahre Erfahrung mit der Akquise und Auswertung biologischer Daten. Inzwischen arbeitet er als Data Engineer in mehreren Projekten an der Datenintegration und Datenvisualisierung von Big Data, speziell im Bereich IoT.
Es darf diskutiert werden.
Bring Dein Wissen mit. Bring Deine Themen mit. Bring Deine Fragen mit. Alles kann, nichts muss. Halt! Eins muss. Du musst Bock haben auf Austausch, Interaktion und Wissenstransfer.
Auf der TDWI München 2023 präsentieren wir ein Barcamp exklusiv zum Themenkomplex Data Science. Als Vorgeschmack auf unsere Konferenz c/o data science am 09. November 2023.
Jedes Barcamp ist so unterschiedlich wie seine Besucher. Denn ein Barcamp lebt von Deiner Beteiligung. Du gestaltest das Barcamp mit, indem Du Dich an den Diskussionen beteiligst. Es gibt keine Agenda vorab. Alles ergibt sich aus den Teilnehmer:innen.
Du kannst Deine Fragen, Thesen und Projekte in einem kurzen Impulsvortrag von 5 bis max. 15 Minuten vorstellen und so selbst die Diskussion starten.
Freue Dich auf den Austausch und den Mehrwert, den Du aus der Diskussion zu Deinen Themen haben wirst.
Eins können wir schon versprechen: Es kommen immer interessante Menschen, die Fragen mitbringen, Projekte vorstellen oder vorstellen möchten, was sie bereits gelernt haben.
Beteilige auch Du Dich an den Diskussionen oder werde Sessionleiter.
Thomas Löchte ist Gründer und Geschäftsführer der Informationsfabrik GmbH. Seit über 20 Jahren unterstützt er Kunden dabei, mehr Nutzen aus Daten zu gewinnen. Er war in verschiedenen Rollen in Data Analytics-, Business Intelligence- und Data Science-Projekten tätig. Heute berät er Führungskräfte hinsichtlich strategischer Themen und plant die Umsetzung komplexer Data Analytics-Lösungen für die Kunden der Informationsfabrik. Dabei legt er großen Wert auf die Erarbeitung Nutzen stiftender Business Cases, ein gutes Zusammenspiel zwischen Business und IT und eine positive Zusammenarbeit im Team.
The results of the DWH Automation Challenge are made available in a web-portal. The data and the data model for Willibald are made freely available.
A good reason to celebrate!
A pleasant way to end a long day on DWH automation and an exchange of ideas in a relaxed atmosphere.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Christian Hädrich ist BI-Spezialist und unterstützt seit über 20 Jahren Unternehmen bei der Entwicklung von dispositiven Anwendungen und Data Warehouses. Durch seinen Mainframe-Hintergrund ist er häufig bei großen Unternehmen wie Versicherungen und Banken tätig. Neben der Implementierung liegt der Schwerpunkt seiner Arbeit in der Architektur- und Prozessberatung. Seit 8 Jahren beschäftigt er sich intensiv mit den Themen DWH-Automatisierung und Data Vault. Er ist Mitglied im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V.
Michael Müller ist seit mehr als 20 Jahren im BI-Bereich tätig. Seine Schwerpunkte liegen in den Bereichen Datenmodellierung und Datenarchitektur sowie Data Vault, DWH-Automatisierung und Einbettung von BI im Unternehmen. Derzeit ist er im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V. tätig.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/michael-mueller/
Vortrag Teilen
In his talk Paul Dietrich shares proven best practices from Collibra customers and ways to support those 66 % of companies that still struggle with turning data into actionable insights.
Digitalisierung heißt: Daten. Zukünftige Herausforderungen in Organisationen sind immer mehr von Daten bestimmt, sind komplex und machen nicht mehr an Abteilungsgrenzen Halt. Wie kann Data Literacy allen Mitarbeitenden den nötigen Perspektivenwechsel ermöglichen, damit Daten im Bewusstsein aller vom „Nebenprodukt“ zum „Asset“ werden?
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Katharina Schüller - die vielfach ausgezeichnete Unternehmerin und Expertin für Data Literacy berät Unternehmen und Ministerien zu den Themen Datenkompetenz, Datenkultur und Datenstrategie. Sie koordiniert die Entwicklung eines globalen IEEE-Standards für Data & AI Literacy, ist Mitglied des Digitalgipfels der Bundesregierung und hat zahlreiche Bücher und Fachartikel veröffentlicht.
Die unbequeme Wahrheit ist: Data Literacy ist Disruption. Gemeinsam durchleben wir in diesem Vortrag anhand von Geschichten aus der Praxis die disruptive Qualität von gescheiterten Ansätzen, in denen Zukunft und Vergangenheit aneinander prallen.
Sie nehmen eine Liste von Fehlern anderer mit, aber auch die Gewissheit, dass Sie einer kulturellen und organisatorischen Disruption gegenüber stehen. Wie stark Sie diese trifft, finden wir in dem Vortrag raus.
Zielpublikum: CDOs, Entscheidungsträger:innen, IT-Leiter:innen als Verantwortliche der Datennutzung, Data Engineers als Ausführende
Voraussetzungen: Verständnis über die Bedeutung von Data Culture und Data Literacy für die Zukunft von Unternehmen
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Data Literacy ist die Fähigkeit, kritisch mit Daten umzugehen. Datendemokratisierung verspricht die Befreiung von Daten zugunsten Aller aus den Händen Weniger. Eifrig werden Selfservice-Konzepte, Trainingskonzepte und Strategien erarbeitet. In Goldgräberstimmung werden Datenschätze vermutet, die komplette Belegschaft von Unternehmen wird mit Waschschalen ausgestattet, um das Gold aus dem Datenfluss zu waschen. Währenddessen hat es Medienkompetenz noch immer nicht überall auf den Stundenplan in Schulen geschafft hat.
Meist bleiben tiefe Enttäuschung und unerfüllte Erwartungen zurück. Statt auf Nuggets schaut man auf ein paar Krümmel Gold. Kritischer Umgang mit Daten führt auch zu lästigen kritischen Fragen, die allgemeine Verfügbarkeit von allen Daten auf der Suche nach der optimalsten Lösung verlangsamt Entscheidungsprozesse. Im Zweifel hilft ja immer noch der Einsatz von KI, wird behauptet.
Die unbequeme Wahrheit ist: Data Literacy ist Disruption. Gemeinsam durchleben wir in diesem Vortrag anhand von Geschichten aus der Praxis die disruptive Qualität von gescheiterten Ansätzen, in denen Zukunft und Vergangenheit aneinander prallen. Angefangen von der Tyranny of small decisions und Decision Fatigue über Wenn-wir-das-gewusst-hätten bis zur Überforderung der Organisation.
Sie nehmen eine Liste von Fehlern anderer mit, aber auch die Gewissheit, dass Sie einer kulturellen und organisatorischen Disruption gegenüber stehen. Wie stark Sie diese trifft, finden wir in dem Vortrag raus.
Christian Schneider ist der Bereichsleiter Data & Analytics bei der QuinScape GmbH. Als Consultant und Projektleiter war er langjährig in internationalen Großprojekten tätig und kennt die vielfältigen Herausforderungen unterschiedlichster Integrations- und Analytikszenarien aus der praktischen Arbeit. Insbesondere der Aspekt des Aufbaus von nachhaltigen Dateninfrastrukturen mit einem überschaubaren Kostenrahmen im späteren Betrieb durch eine gezielte Data Governance waren dabei wichtige Meilensteine. Er ist Co-Autor mehrerer Bücher und regelmäßiger Speaker bei Meetups und Konferenzen.
Der Aufbau eines Data Warehouse ist erfahrungsgemäß sehr aufwendig und langwierig. Gerade in Zeiten von Fachkräftemangel stellt es v. a. mittelständische Unternehmen vor die Herausforderung: Ausbau datengetriebener Entscheidungen, Automatisierung von Prozessen, Integration von IoT-Systemen. Die Goldhofer Aktiengesellschaft hat deshalb den Schritt zu Data Warehouse Automation mit dem Datavault Builder gewagt und innerhalb eines Jahres ein neues DWH aufgebaut.
Zielpublikum: Manager:innen, BI- und DWH-Entwickler:innen
Voraussetzungen: Grundverständnis zum Data Warehouse
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Wie gelingt der Weg zum datengetriebenen Unternehmen im Mittelstand? Datenbasierte Entscheidungen, Prognosesysteme, Verknüpfung von operativen Daten mit IoT-Daten, Automatisierung - Hierfür wird eine integrierte Datenbasis benötigt! Die Anbindung neue Systeme dauert meist mehrere Wochen. Anpassungen an bestehenden Systemen können durch die zunehmende Komplexität zu Seiteneffekten führen, was den Aufwand für die Wartung kontinuierlich steigen lässt.
Um die Entwicklungszeit im Data Warehouse zu beschleunigen, mehr Flexibilität in der Modellierung zu ermöglichen und den Wartungsaufwand zu minimieren, hat sich die Goldhofer Aktiengesellschaft für die Einführung von Data Vault 2.0 mit Automatisierung durch den Datavault Builder entschieden. Nach über einem Jahr Nutzung der neuen Architektur hat sich bestätigt, dass die Nachteile der höheren Komplexität von Data Vault 2.0 durch die Automatisierung in den Hintergrund rücken. Das Unternehmen profitiert neben der gestiegenen Entwicklungsgeschwindigkeit von der gestiegenen Agilität und Transparenz aller Zusammenhänge und Automatisierung des Deployments. Durch die Metadaten-basierte Entwicklung sind die Wege für Migration auf eine analytische Datenbank bereitet.
Andreas Peter ist als Data Architect bei Bosch im Bereich Datenmodellierung, Datenstrategie und Semantische Modellierung.
Petr Beles verfügt über fundierte Erfahrungen in Data-Warehouse-Projekten in den Bereichen Telekommunikation, Finanzen und Industrie. Seit mehreren Jahren führt er als Senior Consultant erfolgreich Projekte mit Data Vault durch. Nachdem er den Bedarf an Automatisierung mit Data Vault erkannt hatte, begann er zusammen mit seinen Kollegen mit der Entwicklung eines Automatisierungstools, das in der Erstellung des Datavault Builders gipfelte. Petr Beles ist heute CEO der 2150 Datavault Builder AG.
----
Petr Beles (Data-Vault-Specialist, Senior Consultant) has profound experience in data warehouse projects in the telecommunications, financial and industrial sectors. For several years he has been successfully implementing projects with Data Vault and trains teams in the application of this data modelling technique.
BI-Plattformen in der Cloud ermöglichen es Unternehmen, große Datenmengen schnell und effizient zu analysieren. Insbesondere in Public Clouds stehen diesen Vorteilen meist Datenschutzbedenken gegenüber. Dieser Vortrag zeigt, wie Datenschutzanforderungen erfüllt werden können, ohne dabei große Kompromisse eingehen zu müssen. Anhand eines Use Cases wird aufgezeigt, wie ein klassisches DWH an eine moderne BI-Plattform in der Cloud angebunden werden kann, ohne dabei Daten im Klartext außerhalb des Unternehmens speichern zu müssen.
Zielpublikum: Geschäftsführer, BI-Analysten, IT-Verantwortliche
Voraussetzungen: Grundlegendes Know-how über BI-Plattformen und Cloud-Systeme
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die digitale Welt ist schnell. Unternehmen geraten schnell unter Druck, wenn sie nicht in der Lage sind, sich an schnell verändernde Marktanforderungen anzupassen. Es sind daher meist die Fachabteilungen, die ein modernes Business Intelligence (BI) Tool fordern, um Daten sammeln, analysieren und visualisieren zu können. Sie benötigen jene Informationen, um das Unternehmen steuern und richtige Entscheidungen treffen zu können.
IT-Abteilungen sind dann meist diejenigen, die mit den daraus resultierenden immer schneller wachsenden fachlichen Anforderungen konfrontiert werden und technische Lösungen dafür bereitstellen sollen. Dabei sind stetig wachsende Datenmengen ebenso eine wesentliche Herausforderung wie unterschiedliche Datenformate. Insbesondere die immer größer werdende Bedeutung von Echtzeitdaten aus Streams oder semi- & unstrukturierte Daten aus IoT-Geräten haben dem oftmals über mehrere Jahre hinweg entwickelten und gepflegten klassischen Data Warehouse seine Grenzen aufgezeigt.
Ein möglicher Ansatz, diesen Herausforderungen zu begegnen, ist der Gang zu einem der großen Public-Cloud-Anbieter. Während die Möglichkeiten hinsichtlich der Skalierung von Ressourcen dabei helfen, mit ständig steigenden Datenmengen umgehen zu können, helfen diverse Managed Services dabei, unterschiedlichste Datenformate verarbeiten und konsolidieren zu können.
Schnell zum K.O.-Kriterium wird hierbei oft der Datenschutz. Besonders dann, wenn personenbezogene Daten verarbeitet werden müssen und diese Deutschland oder sogar die EU verlassen könnten, wird es kompliziert. Die meisten großen Public-Cloud-Anbieter bieten zwar mittlerweile Lösungen wie ein garantiertes Hosting in Deutschland, betrachtet man diese Option jedoch näher, wird man oftmals schnell enttäuscht: Datenspeicherung in Deutschland ja, Datenverarbeitung in Deutschland nur teilweise. Manche Services sind mit einem garantierten Betrieb in Deutschland sogar gar nicht verfügbar. Der Netzwerktraffic und über welche Knoten dieser läuft und vor allem, in welchen Ländern sich die Knoten denn befinden, ist das nächste Thema, was beachtet werden muss. Zugegeben: Das Thema neigt dazu, schnell zu einer akademischen Diskussion zu werden.
Eine ganz andere Frage, die sich jedes Unternehmen aber erst mal grundsätzlich stellen muss, ist: Möchte ich das überhaupt? Möchte ich, dass unternehmenskritische Informationen außerhalb meines Einflussbereiches gespeichert werden? Auch diese Diskussion kann man schnell in eine akademische Richtung bringen: Werden Daten nicht eh schon aus der Hand gegeben, sobald ich nicht selbst entwickelte Software einsetze? Ob großer Cloud-Anbieter oder lokales Rechenzentrum, liegt dazwischen nicht oftmals eh schon das Internet?
In diesem Vortrag werden keine akademischen Diskussionen geführt. Anhand eines konkreten Use Case aus der Praxis zeigen wir, wie sich Daten in der Cloud speichern und verarbeiten lassen, ohne dabei die Daten aus der eigenen Hand zu geben. Wir zeigen, wie Datenschutzanforderungen erfüllt werden können, ohne dass Anwender auf Features einer modernen BI-Plattform in der Cloud verzichten müssen.
Im Use Case dient ein klassisches, lokal betriebenes Data Warehouse als Quelle. Welche Datenbank- und ETL-Software im Einsatz ist, spielt keine gesonderte Rolle. Es wird aufgezeigt, wie eine gesicherte Übertragung der Daten auf einen Managed Service in der Cloud erfolgen kann. Konkret wird hier eine Azure SQL Database auf Microsoft Azure verwendet. Die Daten werden auf der Azure SQL Database verschlüsselt - also nicht im Klartext - gespeichert. Dies kann für die ganze Datenbank, für einzelne Tabellen oder auf Spaltenebene pro Tabelle erfolgen. Die Entschlüsselung der Daten findet erst zur Laufzeit während des Zugriffs eines Anwenders aus Microsoft Power BI heraus statt.
Worauf es dabei zu achten gilt, ist wie die Infrastruktur auf Microsoft Azure dafür aufgesetzt werden muss. Welche Software-Features und Services genau zum Einsatz kommen, ist ebenfalls Bestandteil dieses Vortrages.
Wolfgang Kettler leitet das Team BI & Reporting bei der ORDIX AG. Er verfügt über 12 Jahre Erfahrung im Bereich der Architektur komplexer Daten-Plattformen und BI-Anwendungen. Als Senior Chief Consultant berät er Kunden in den oben genannten Themenfeldern. In den letzten Jahren lag sein Fokus insbesondere auf der Migration bestehender On-premise-Lösungen auf moderne, skalierbare Cloud-Lösungen auf Microsoft Azure.
Auf dem Gesamtweg in die Cloud hat Hapag-Lloyd seine analytischen Fähigkeiten gestärkt, indem es eine zentrale Datenspeicherung ('Data LAKE') eingeführt hat und so Herausforderungen im Zusammenhang mit On-Premise-Lösungen überwunden und weitere Anwendungsfälle und Analysen ermöglicht hat. Die Präsentation wird auf die gemeisterten Herausforderungen und die direkten Vorteile aus dem Übergang in die Cloud eingehen.
Zielpublikum: Entscheider:innen, Product Specialists, Data Analysts, Data Scientists
Voraussetzungen: Grundlegendes analytisches Wissen, Grundlagen von Cloud-Umgebungen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Als eine der führenden Reedereien hat Hapag-Lloyd schon immer einen starken Fokus auf eine starke IT-Infrastruktur für den Betrieb und die Analyse gelegt - insbesondere die Nutzung von Daten, um Erkenntnisse, Dashboards und konkrete Maßnahmen zu generieren.
Mit immer mehr verfügbaren und zugänglichen Daten wird es immer deutlicher, dass die Fähigkeit, diese handlungsorientiert, sichtbar und in Produkte umzusetzen, ein entscheidender Erfolgsfaktor in der Schifffahrtsindustrie ist.
Angesichts der bevorstehenden neuen Herausforderungen hat Hapag-Lloyd beschlossen, die IT-Landschaft in die Cloud zu verlagern und ein enormes Projekt zur Migration, Überprüfung, Neubewertung und Innovation der gesamten IT-Landschaft in Richtung einer vollständig Cloud-basierten Infrastruktur zu starten.
Als eine der ersten Erfolgsgeschichten hat Hapag-Lloyd das Cloud-basierte Produkt 'Data Lake' aufgebaut. Das Produkt selbst ist zum zentralen Speicher für Analytics geworden und stellt alle relevanten Daten aus verschiedenen Datenquellen für die Analyse bereit.
Mit der Cloud-basierten Infrastruktur verschwanden die früheren Speicherlimitationen, was von einem Use-Case-getriebenen Ansatz zu einer Plattform führte. Daten werden also nicht mehr erhoben, sobald sie für eine Analyse gebraucht werden, sondern generell gesammelt, um für Analysen bereitzustehen.
Zunächst war der Fokus auf den Datenimport von den vorhandenen Kern-IT-Systemen in die Cloud gerichtet. Sobald die Daten in die Cloud geladen waren, ermöglichte dies eine dezentralisierte Analyse, mit der sich auch der Zugang zu den Daten signifikant veränderte und nun eine spezialisierte Benutzergruppe eingeführt wurde, die den Zugang zu allen verfügbaren Daten im Data Lake ermöglichte. Für diese Benutzergruppe wurde eine sichere Umgebung geschaffen, die den GDPR-Richtlinien entspricht. Alle personenbezogenen Informationen sind im Data Lake maskiert, wobei ein besonderer Schwerpunkt auf den Mitarbeiterdaten liegt, um die Möglichkeit zur Erstellung von Performance-Analysen auf Mitarbeiterbasis zu deaktivieren.
Darüber hinaus wurde das verfügbare Datenformat auch auf 'Change Data Capture' (CDC) geändert, was weitere Analysen ermöglichte (z. B. Verfolgung jeder Änderung an einem Versand, Schiff oder Container).
Die Einführung der spezialisierten Benutzergruppe im gesamten Unternehmen reduzierte die Abhängigkeit von verschiedenen IT-Teams und ermöglichte es den Benutzern, noch schneller von den Daten Erkenntnisse und Vorteile zu ziehen.
Die wichtigsten unterstützenden Technologien in der AWS-Cloud sind S3 als Speicher, Athena als Abfrage-Engine auf den S3-Daten, Glue als unterstützendes Tool zur Verbindung der S3-Daten mit Athena und Step-Functions zur Orchestrierung der Verarbeitung.
Neben der Einführung des Data Lakes war es essenziell, auch unterstützende Tools wie das Meta Data Management Tool einzuführen, um den Anwender zu führen und um Datenrelation und -zusammenhänge darzustellen.
Robert Ziegltrum ist Daten-Enthusiast, Data Scientist, Business Intelligence Specialist und Product Owner mit über 8 Jahren Erfahrung in BI und Analytics. Derzeit ist er Data Scientist und Product Owner des Data Lake bei Hapag-Lloyd. (>4 Jahre bei HL), vormals Data-Analyst bei Ströer (Ströer Media Brands) und RTL (Checkout Charlie).
Daten & Analytics sind Entscheidungs-Unterstützung. Entscheidungen werden durch Daten besser, rationaler, vorausschauender. So die Theorie. In der Praxis scheitert das leider oft an der Übersetzung zwischen Datenprofis wie BI, Data Scientists und Analysts einerseits und Entscheidern, Stakeholdern und Kunden andererseits. Wertvolle Erkenntnisse verpuffen ungehört, Dashboards fristen ein Schattendasein und Daten entfalten keinen Impact. Was Datenprofis selbst in die Hand nehmen können, um das zu ändern, ist die Qualität ihrer Datenkommunikation.
Zielpublikum: Business- & Data-Analyst:innen, Data Scientists, BI-Expert:innen, Researchers
Voraussetzungen: Kontakt zu Business-Entscheider:innen und Stakeholdern in der eigenen Berufs-Praxis
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Der Vortrag vermittelt den Teilnehmern konkrete Tools, die dabei helfen, Business-Entscheidern und Stakeholdern datenbasierte Erkenntnisse zu vermitteln. Anhand eines praxisnahen Fallbeispiels lernen die Teilnehmer:
- die eigenen Interessen von denen ihrer Business-Entscheider und Stakeholder zu unterscheiden.
- Haltung & Vorwissen ihrer Business-Entscheider und Stakeholder in datenbasierte Narrative einzubauen.
- ihre Daten effizient und 'human friendly' zu visualisieren.
Die vermittelten Tools wenden Klassiker der professionellen Business-Kommunikation wie das 'Pyramid Principle' von Barbara Minto und die Experimente zur Graphical Perception von Cleveland & McGill (1985) auf die berufliche Praxis von Datenprofis an und geben Inspiration sowie Denkanstöße für eine verbesserte Datenkommunikation und -Visualisierung.
Überzeugung: Datenbasierte Entscheidungen erzeugen positiven Business Impact.
Background: Langjährige Erfahrung mit BI, Analytics & Controlling. Aufbau & Management dieser Bereiche im Konzern, u.a. als Direct Report an Vorstand & Geschäftsführung. Zertifizierter Business Coach. Gründerin der Beratungsfirma EnCon Coaching & Consulting.
Herzensthema: „do you speak data?“ – Training & Beratung zu Data Literacy für Alle und zu professioneller Datenkommunikation für Daten- und Insightsprofis.
seit 2021: Leitung Abteilung Digitalisation, Controlling & Analytics im HR-Bereich
2019-2020: Zertifizierung Business Coach & Gründung EnCon Coaching & Consulting
2013-2020: Leitung Business Intelligence
2009-2012: Marktforschung & Research
ChatGPT erschien am 30. November 2022. Seitdem hält der Chatbot die Welt in Atem. Er kann Dinge, die Apologeten wahlweise prophezeiten, befürchteten oder ersehnten. Viele glauben an einen 'iPhone-Moment' in der KI-Geschichte. Was genau ist ChatGPT? Warum ist es ein 'Allzweckwerkzeug' für Wissensarbeit? Ausgehend von den Grundlagen der Wissensarbeit ergründet der Vortrag den Hype um ChatGPT. Und zeigt anschaulich, wie Wissensarbeiter der Konkurrenz durch ChatGPT begegnen können.
Zielpublikum: jede Art von Wissenarbeiter:in wie z. B. Entscheider:in, Projektmanager:in, Autor:in, Journalist:in, Lehrer:in, Berater:in, Coach, ...
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Am 30. November 2022 wurde ChatGPT offiziell vorgestellt und seitdem hält der Chatbot die Welt in Atem. Er basiert auf einem künstlichen neuronalen Netzwerk, das durch maschinelles Lernen trainiert wurde. ChatGPT erledigt eine breite Palette von Aufgaben, wie z. B. das Zusammenfassen und Übersetzen von Texten, das Beantworten offener gestellter Fragen und sogar das Schreiben von Liedern, Gedichten und Geschichten.
Die Einsatzzwecke für ChatGPT sind groß, was es zu einer Art Allzweckwerkzeug für Wissensarbeit macht. Es löst komplexe Probleme in kurzer Zeit, die Menschen oft schwerfallen, und liefert schnelle - und mit Abstrichen brauchbare - Antworten auf mehrdeutige Fragen. Dazu verarbeitet und analysiert ChatGPT große Mengen von Daten, was es zu einem unschätzbaren Werkzeug macht für das Beschaffen von Information und das Vorbereiten von Entscheidungen.
Der Hype um ChatGPT kommt nicht von ungefähr. Viele glauben, dass wir gerade einen 'iPhone-Moment' in der KI-Geschichte erleben: Wie das iPhone die Art und Weise verändert hat, wie wir miteinander kommunizieren und Information teilen, so steckt in ChatGPT das Potenzial, die Art und Weise zu verändern, wie wir Wissen finden oder entdecken und Neues schaffen.
Der Vortrag untersucht die Grundlagen der Wissensarbeit und der Mensch-Maschine-Interaktion und erklärt, warum ChatGPT die Wissensarbeit radikal verändert. ChatGPT wird bleiben, weit mächtigere Werkzeuge werden kommen. Deshalb erläutert der Vortrag zum Schluss, welche Strategien Wissensarbeiter anwenden können, um sich nun neu zu erfinden.
Stefan Holtel ist Informatiker, Wissensmanager und Trainer für LEGO Serious Play. Er arbeitete viele Jahre in der Forschung und Entwicklung von Vodafone. Regelmäßig präsentiert, publiziert und doziert er zur Frage, wie Unternehmen die digitale Transformation meistern können. Seit 2018 ist er Kurator für digitalen Wandel bei PricewaterhouseCoopers. Derzeit entwickelt er neuartige Ausbildungskonzepte, um Prompt Engineering in großen Organisationen erfolgreich zu skalieren. Im Januar erschien im Franz Vahlen Verlag sein neues Buch "Droht das Ende der Experten? ChatGPT und die Zukunft der Wissensarbeit".
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/raphael.branger
Agile ist doch gleichbedeutend mit Chaos und Planlosigkeit - wie soll mir das bitte bei meinem Business Intelligence-Vorhaben weiterhelfen?' Es ist ein gängiger Irrglaube, dass Agile gleich-bedeutend ist mit schlechter oder keiner Planung. Wir laden dich deshalb ein zu einem interaktiven Stadtrundgang durch 'Agile BI City': Du erfährst, was du für dein agil durchgeführtes BI-Projekt beachten musst. Du lernst mittels praktischer Aufgaben, wie du frühzeitig und kontinuierlich Mehrwerte für deine Auftraggeber lieferst. Abwechslung ist garantiert!
Zielpublikum: Projektleiter:innen, Product Owner, Scrum Master, BICC-Leiter:innen
Voraussetzungen: Grundverständnis der Begriffe BI und DWH
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Du stehst vor deinem ersten Business Intelligence (BI)- oder Data Warehousing (DWH)-Projekt, welches du agil abwickeln möchtest? Oder aber du steckst bereits mittendrin und irgendwie will das mit der Agilität im BI-Kontext nicht so richtig klappen? Dann ist diese Stadtführung durch Agile BI City genau richtig für dich.
Agilität kann man nicht 'machen'. Gesteigerte Agilität - z. B. im Kontext von BI- und DWH-Systementwicklung - ist viel mehr das abstrakte Fernziel einer Reise, sowohl für dich als auch deine Organisation. Als Reiseleiter nehmen wir dich in diesem interaktiven Workshop mit und führen dich einmal quer durch 'Agile BI City'. Unser Agile BI City-Stadtplan spielt dabei eine zentrale Rolle: In Form von mehr als 30 Stationen, aufgeteilt in sieben Stadtteile, bekommst du eine praktische Orientierungshilfe an die Hand, damit du dich - wieder zurück in deiner eigenen Organisation - auf deiner eigenen Agile-BI-Reise orientieren kannst.
Wir starten unseren Rundgang in Foundation-Beach. Hier schauen wir uns die Grundlagen eines agilen Vorgehens an. In einer praktischen Übung wählst du dir deine Favoriten unter den agilen Prinzipien aus. Das agile 'Mindset' mag ein guter Nordstern sein, bleibt in der Regel aber zu wenig konkret. Deswegen machen wir einen kurzen Abstecher in die Vision-Hills, wo wir uns über die Rolle einer BI-Strategie unterhalten. In Downtown-Patterns erfahren wir danach mehr über die Wichtigkeit von Design Patterns und Standards als Grundlage für ein agiles Vorgehen.
Nach einer kurzen Verschnaufpause fahren wir mit unserem Stadtrundgang weiter in Central-Technology. Dabei stehen die technologischen Grundlagen für Agile BI, wie z. B. DWH- und Testautomation, im Mittelpunkt. Gemeinsam besuchen wir ausgewählte Anbieter in der Messehalle. Es folgt ein kurzer Abstecher nach South-Contracting, wo wir die Frage erörtern, wie sich ein agiles Vorgehen und Verträge sinnvoll zusammenbringen lassen.
Weiter geht's in Uptown-Process, wo wir verschiedene agile Prozesse wie z. B. Scrum besichtigen und uns in Gruppen überlegen, wie sich diese im Kontext von Agile BI bewähren. Als letzter Stadtteil besichtigen wir Release-Island und lernen, wie Anforderungen während eines agilen Projektreleases erhoben, verfeinert und umgesetzt werden. In Kleingruppen erarbeitet ihr dabei einen Scopebreakdown für ein fiktives BI-Projekt und schreibt erste User Stories.
Als Abschluss unserer dreistündigen Entdeckungstour hast du die Möglichkeit, dir Gedanken zu deiner eigenen Reise in Richtung Agile BI zu machen. Wenn du den Agile BI City-Stadtplan auf deine eigene Organisation anwendest: Wo steht ihr gerade? Welche Stadtteile kennt ihr schon gut, welche sind noch erkundungswürdig? Wo hast du konkrete Fragen? Deine Reiseleiter stehen dir dabei für Rückfragen und Auskünfte gerne zur Verfügung.
Am Ende des Workshops hast du nicht nur einen Stadtplan in der Hand, welcher dir einen Überblick der möglichen Wegpunkte auf deiner Reise zu mehr Agilität in BI- und DWH-Projekten gibt. Du hast auch bereits erste praktische Erfahrungen gesammelt und dir konkrete Schritte für deine weitere Reise überlegt.
Raphael Branger ist Autor des Buchs 'How to succeed with Agile Business Intelligence' sowie Co-Autor des Buchs 'Self-Service BI & Analytics'. Er arbeitet als Principal Consultant Data & Analytics bei der IT-Logix AG. Er hilft Organisationen, ihre Anforderungen rund um Daten und 'Analytics' zu erheben und umzusetzen. Er ist zugleich Stratege, Architekt, Requirements Engineer, Agile Coach aber auch Entwickler. Dadurch bringt er eine ganzheitliche Sicht in seine Projekte ein.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/raphael-branger/
Gianna Neeser arbeitet als Senior Consultant Data & Analytics bei der IT-Logix AG. Im Studium hat sie ihr Interesse an Daten entdeckt und beschäftigt sich heute mit der Entwicklung von Data Warehouses. Sie unterstützt Organisationen bei der Erhebung und Analyse von BI-spezifischen Anforderungen, der Durchführung von Projekten als Agile BI Coach in Entwicklerteams sowie dem Enablement der Fachanwender:innen. Gianna investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.
Eva-Maria Kopf hat sich bereits in ihrem Masterstudium 'Business Intelligence & Analytics' mit Themen wie Storytelling beschäftigt. Als Consultant Data & Analytics bei der IT-Logix AG unterstützt sie Organisationen in der Bereitstellung von Daten ebenso wie in der Entwicklung und Umsetzung entscheidungstreibender BI-Reportings und dem Enablement von Fachanwender:innen. Eva-Maria investiert sich zudem als «TDWI Young Gun» aktiv in die BI-Community.
In den letzten Jahren wurden digitale Plattformen zunehmend zum Gegenstand intensiver Diskussionen in Forschung und Praxis. Schließlich existieren genug Beispiele darüber wie digitale Plattformen in der Lage sind, ganze Märkte umzustrukturieren, indem sie Netzwerkeffekte nutzen, um schnell zu skalieren und verschiedene Akteure miteinander zu verbinden. Doch in den Anwendungsdomänen mit sensitiven Daten kommt das viel erforschte Konzept digitaler Plattformen an seine Grenzen. Während die Forschung an sog. Datenplattformen sich noch im Anfangsstadium befindet, wird über verschiedene Dezentralisierungsmaßnahmen debattiert, um die inhärenten Problematiken digitaler Plattformen wie Machtasymmetrien zu adressieren und die Datenökonomie zu fördern. Neben der aktuellen Übersicht solcher Problematiken werden in diesem Vortrag auch einige vielversprechende Ansätze, die in der aktuellen Forschung diskutiert werden, präsentiert.
Dr. Dimitri Petrik is a postdoctoral researcher at the Department for Information Systems II at the University of Stuttgart and a research group leader at the Graduate School of Excellence Advanced Manufacturing Engineering (GSaME) of the University of Stuttgart. In addition to the current research project in the context circular economy, Dimitris research interests include digital platforms, platform ecosystems, and the data economy. Dimitri publishes in the Information Systems and Strategic Management disciplines, including the International Conference on Information Systems, the Information Systems Management Journal, or the Schmalenbach Business Review. He also serves as an organizing committee member of the ICSOB and the International Workshop on Software-intensive Business and is a member of the Software Product Management (WI-PrdM) Division of the German Informatics Society.
Tobias presents DANONE´s data strategy for 2025 and the lessons learned from a use case realization. Promises and expectations were high and are still very ambitious. Tobias will share lessons learned and best practices.
Target Audience: People who would to understand what happens on a data journey starting with a data strategy until handing over data products to business people.
Prerequisites: Curiosity
Level: Basic
Tobias Riedner is head of IT Data & Analytics in Danone since 2022. He is responsible for shaping and delivering the data analytics roadmap until 2025. Pillars are how to create business value out of data, defining the organization from scratch and deliver data products with the right architecture.
Die Novellierung des IT-Sicherheitsgesetzes umfasst neue Wirtschaftszweige, die zukünftig die hohen KRITIS-Sicherheitsanforderungen erfüllen müssen. Um späteren Mehraufwand zu vermeiden, sollte Sicherheit daher von Anfang an mitbedacht werden (Secure by Design). Auch cloud-native Data Warehouses, Data Fabrics und Data Meshes müssen auf verschiedenen Ebenen abgesichert und Kommunikation muss verschlüsselt werden. infologistix zeigt einen Verschlüsselungsansatz einer Data Platform, der die BSI-Sicherheitsanforderungen erfüllt.
Zielpublikum: Platform Engineer, Data Engineer, Projektleiter:innen, IT-Verantwortliche
Voraussetzungen: BSI-Grundschutzkatalog, DWH-Konzepte in der Cloud, Container-Plattformen
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Der KRITIS-Katalog umfasst nach der Novellierung der NIS 2-Richtlinie der EU nahezu alle Bereiche der digitalen Infrastruktur. In diesem Zusammenhang werden sämtliche großen Data Warehouse-Systeme die neuen Sicherheitsanforderungen erfüllen müssen. Für Cloud-native Daten-Plattformen muss dabei die gesamte Infrastruktur betrachtet werden. Hier muss sämtliche Kommunikation (ETL-Strecken, Datenbankanbindung, Batch Processing) TLS-verschlüsselt werden. Zu diesem Zweck wird der Ansatz des Service Mesh gewählt, um einen einfachen Zertifikatstausch zu ermöglichen und die Verschlüsselung der Kommunikation zu übernehmen.
Im Vortrag von infologistix wird hierzu ein Ansatz mit Istio präsentiert. Istio bietet neben der reinen Verschlüsselung der Kommunikation über mTLS auch viele weitere optionale Features für Authentifikation, Autorisierung und Ausfallsicherheit. Der Zuhörer erfährt anhand der praxiserprobten Lösung, wie die komplette Absicherung einer Plattform umgesetzt werden kann. Im Fazit erfolgt ein Abgleich der Lösung mit den hohen Sicherheitsanforderungen.
Dr.-Ing. Harald Philipp Gerhards ist Bereichsleiter Cloud Engineering bei der infologistix GmbH und Lehrbeauftragter an der TH Würzburg-Schweinfurt. Er ist zertifizierter Projekt- und Qualitätsmanager und berät als Senior Systemarchitekt Kunden mit den Schwerpunkten Container-Plattformen und Erweiterungen bestehender BI-Architekturen. Zurzeit ist er für eine hochsichere Kubernetes-Plattform eines Kunden verantwortlich und beschäftigt sich mit Security und Observability.
Paul Schmidt ist IT Consultant bei der infologistix GmbH. Mit einem Master in Informationssystemen hat er sich auf die Themen Industrie 4.0, Business Intelligence und Cloud Operations fokussiert. Sein Schwerpunkt liegt in der Entwicklung und Integration von Machine Learning und künstlicher Intelligenz sowie der Absicherung von Netzwerkarchitekturen. Auf der TDWI München digital 2021 hat er den Vortrag 'KI für Energetische Optimierung innerbetrieblicher Stromnetze' gehalten.
Um komplexe Metriken live bei Änderungen von Daten in einem Planungstool für den Anlagenbau anzeigen zu können, wurde eine 3-schichtige Architektur mit Datenbanktriggern entwickelt. Diese löst bestehende langsame Views ab, die zu langen Ladezeiten der UI führten. Eine Trennung von Datenselektion, Businesslogik und Schreibzugriff sorgt für strukturierten Code. Ebenso sorgt die exakte Selektion der Daten, die aktualisiert werden müssen, für effiziente Trigger. Probleme bei der Wartung werden über eine strukturierte Dokumentation gelöst.
Zielpublikum: Entwickler:innen, Datenbankentwickler:innen, Software-Architekt:innen
Voraussetzungen: Datenbankgrundlagen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Bei der Entwicklung eines Planungstools für den Anlagenbau im Rahmen eines Kundenprojekts kam die Anforderung auf, dass komplexe Metriken basierend auf den aktuell eingegebenen Daten live aktualisiert werden. Im ersten Entwicklungsschritt wurde dies mithilfe von Datenbankviews umgesetzt. Steigende Datenmengen führten dazu, dass die Antwortzeiten der UI zu langsam wurden. Eine zeitlich versetzte Aktualisierung von vorberechneten Metriken war nicht möglich.
Als Lösung wurde eine 3-schichtige Architektur mit Datenbanktriggern implementiert. Die erste Schicht besteht aus den Triggern selbst, in denen bestimmt wird, was aktualisiert werden muss. Einerseits werden die Zeilen bestimmt, die aktualisiert werden müssen. Diese werden in einer In-Memory-Tabelle gespeichert. Andererseits werden auch die Spalten/Metriken bestimmt, die sich verändert haben können. Jede Metrik wird über eine Update-Prozedur repräsentiert. Die Trigger wählen also aus, welche Prozeduren aufgerufen werden müssen und welche Zeilen aktualisiert werden sollen. Durch die exakte Auswahl dessen, was aktualisiert werden muss, wird die Effizienz der Trigger verbessert.
Die Update-Prozeduren bilden die zweite Schicht und sind alle nach dem gleichen Prinzip aufgebaut. Sie erhalten als Eingabe die In-Memory-Tabelle mit den Ids der Zeilen, die aktualisiert werden müssen. Danach rufen sie die existierenden Views auf, in denen die Businesslogik abgebildet wurde, und aktualisieren die materialisierten Metriken für die selektierten Zeilen.
Die Wiederverwendung der existierenden Views ersparte bei der Entwicklung erheblich Zeit, da die komplexe Businesslogik nicht erneut implementiert werden musste. Die Trennung der Selektion der Zeilen im Trigger, der Schreibprozeduren und der Businesslogik verhindert Code-Duplikation. Der Grund dafür ist, dass Trigger auf unterschiedlichen Tabellen mit unterschiedlichen Selektionskriterien dieselbe Update-Prozedur aufrufen können. Aufgrund der Anzahl an Metriken und der Anzahl an Tabellen, die Einfluss auf die Metriken haben, wurde eine strukturierte Dokumentation eingeführt, um die Wartbarkeit zu gewährleisten.
Es wurde eine Performanceanalyse durchgeführt, inwieweit die Trigger den Lesezugriff durch Materialisierung der Daten beschleunigen und inwieweit die Trigger den Schreibzugriff verlangsamen. Die Trigger wurden so definiert, dass sie pro Statement ausgeführt werden, um Bulkoperationen effizient zu ermöglichen, da diese im System neben Einzeloperationen auch häufig vorkommen. Es stellte sich heraus, dass die Schreibprozesse im System während der Einführung der Trigger überarbeitet werden mussten. Die Schreibprozesse waren noch nicht dahingehend optimiert, dass sie mit möglichst wenig einzelnen Schreiboperationen arbeiteten. Es mussten also Schleifen im Code mit einzelnen Updates oder Inserts in Batch-Statements umgeschrieben werden.
Dr. Philipp Baumgärtel promovierte 2015 im Bereich Datenbanken an der FAU Erlangen-Nürnberg. Aktuell arbeitet er als Lead Consultant bei der PRODATO Integration Technology GmbH an Kundenprojekten mit Fokus auf Daten- und Anwendungsintegration.
SQL ist nicht wegzudenken aus der Datenanalyse. In der Realität findet man dann häufig das Pattern: Python Glue Code in Notebooks, der SQL Statements ausführt. dbt (data build tool) hilft dabei, SQL-Datenpipelines strukturiert aufzubauen, inkl. Validierung der Daten, Dokumentation & Abhängigkeitsgraphen. Die Automatisierung von Datenaufbereitungen und Analysen gelingt so ganz einfach.
Zielpublikum: Data Engineer, Data Architect
Voraussetzungen: Grundlagen SQL/Python sind hilfereich
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
SQL ist weiterhin nicht wegzudenken aus der Datenanalyse - es ist vergleichsweise einfach zu lernen und kann ohne zusätzliche Werkzeuge auf einer Datenbank ausgeführt werden. Entsprechend ist es bei vielen Datenanalysten sehr beliebt. Es hat aber auch Schwächen, die besonders im Vergleich zu Python auffallen. Neben den bekannten ML-Frameworks gibt es in Python auch für Datenpipelines eine Reihe von Werkzeugen, sowohl zur Datenvalidierung als auch Orchestrierung. Dinge, die mit SQL allein gar nicht oder nur mühselig abzubilden sind.
SQL für Transformationen möchte man nicht aufgeben. Allerdings befindet man sich heute auch als Data Analyst immer mehr in der Python-Welt wieder. Bei Datenplattformen ist Python oft der Standard für jegliche Verarbeitung von Daten. Und auch die Data Engineers wollen lieber Python als SQL schreiben. Da mit SQL aber vergleichsweise gut Transformationen auf Daten ausgedrückt werden können, findet man dann häufig folgendes Pattern: Python Glue Code wird geschrieben, der dann SQL Statements ausführt. Und das Ganze im Extremfall auch noch verteilt über Notebooks.
dbt (data build tool) ist ein Kommandozeilentool, um mit SQL solche Datenpipelines strukturiert aufzubauen. Ebenso ermöglicht es, die Validierung der Daten direkt mit zu erledigen. Auch bei der Historisierung von Stammdaten, die regelmäßig aus operativen Systemen abgezogen werden, hilft es. Als Ergebnis gibt es nicht nur saubere & gefüllte Tabellen in einer Datenbank, sondern auch noch Dokumentation und Abhängigkeitsgraphen. Das Ganze hilft nicht nur beim Aufbereiten von Daten. Auch die darauf folgenden, regelmäßigen Analysen und Auswertungen lassen sich so bequem automatisieren. Inklusive Rückverfolgbarkeit, welche Analyse welche Daten benutzt. Und wenn die Basisdaten inhaltliche Fehler aufweisen, werden die Auswertungen, die darauf basieren, gar nicht erst aktualisiert.
Matthias Niehoff ist als Data Architect sowie Head of Data & AI für die codecentric unterwegs und unterstützt Kunden bei Design und Umsetzung von Datenarchitekturen. Dabei liegt sein Fokus weniger auf dem Modell, sondern viel mehr auf der notwendigen Infrastruktur & Organisation, um Daten & KI-Projekten zum Erfolg zu verhelfen.
Jedes Unternehmen möchte verstehen, wo es Potenzial hat, Verbesserungen anzubringen. Doch ohne Überblick darüber, welches Ereignis welche Auswirkungen hat, ist das schwer zu erkennen. In dieser interaktiven Session wird über Treiber-Bäume gesprochen - eines der ältesten Analyse-Tools. Wir besprechen die Vorteile und Herausforderungen bei der Implementierung und sehen, wie sie Entscheidungsprozesse unterstützen können. Denn dank des visuellen Charakters helfen Treiber-Bäume, Geschäfte und Potenziale zu erkennen.
Zielpublikum: Alle, die Daten nutzen, um Dinge zu verstehen
Voraussetzungen: Interesse an visuellen Methoden
Schwierigkeitsgrad: Einsteiger
In den letzten 16 Jahren spezialisierte sich Philipp Baron Freytag von Loringhoven auf die Unterstützung von Unternehmen bei der Entwicklung effektiver Werbekampagnen mithilfe von Daten und Marketing-Analytics. Er leitete internationale Marketing- und Data-Teams für Start-ups und Unternehmen. Als Freelancer hilft er Firmen bei einer Nutzung ihrer Daten, die zu weiterem Marketing- und Sales-Erfolg führt. Philipp möchte durch und dank Daten wieder bessere, interessantere Werbung sehen. Werbung, die begeistert, die anspricht. Deshalb betreibt er seit 2020 auch den Podcast Dataengage, um mehr Menschen den Zugang zu Daten, Technologie und Marketing zu ermöglichen.
Vortrag Teilen
Chancen und Risiken generativer KI
Wir wollen die Potentiale generativer KI von zwei Seiten betrachten:
Was sind die Vorteile – wie kann mit generativer KI die (Arbeits-) Welt zum Positiven verändert werden? Wie kann die Menschheit von generativer KI profitieren?
Welches sind die Risiken, mit denen wir rechnen müssen? Wir können wir diesen begegnen? Sind wir ausreichend auf das vorbereitet, das da kommt?
Dr. Andreas Totok beschäftigt sich seit den 1990er Jahren mit Anwendungen zur Datenintegration und -analyse und leitet in der Finanz Informatik Solutions Plus (FI-SP) den Geschäftsbereich Enterprise Information Management. Seine Schwerpunkte liegen in der Architektur- und Organisationsberatung im Kontext von BI- und KI-Projekten in der Sparkassen-Finanzgruppe. Er ist zudem Buchautor“, Referent auf Fachveranstaltungen und engagiert sich in der TDWI-Community, von der er die Auszeichnung „TDWI Europe Fellow“ erhielt. Als stellvertretender Vorsitzender des TDWI kümmert er sich um die kontinuierliche Weiterentwicklung der Vereinskommunikation.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/andreas-totok/
Constantin Sanders ist Senior Data Scientist bei der Alexander Thamm GmbH mit dem Schwerpunkt Natural Language Processing (NLP). In verschiedenen Data Science Projekten konnte er seine wissenschaftliche Ausbildung (M.A. Germanistik & M.Sc. Data Science) mit praktischen Erfahrungen kombinieren. Wenn er sich nicht gerade mit Sprache bzw. sprachverabeitenden Systemen auseinandersetzt, verbringt er viel Zeit mit Fußballschauen und -spielen.
Deep learning methods archive stunning performances in many disciplines like computer vision or natural language processing. For factory automation, deep learning is applied to detect anomalies and monitor the machine condition to increase productivity. In practice, we need to overcome multiple challenges: low quality datasets, missing domain knowledge and lack of performance metrics standards. In this session, we explain the usage of open source frameworks and configurable deep learning tools to create a condition-based maintenance system.
Target Audience: Decision Makers, Data Scientist, Factory Automation Experts
Prerequisites: Basic knowledge in data processing.
Level: Basic
Tom Hammerbacher is Dual Student Information Technology at Phoenix Contact. He is a Data Scientist for Anomaly Detection and Condition Monitoring, System Manager - Data Collection, Storage, and Evaluation.