The times given in the conference program of TDWI München digital correspond to Central European Time (CET).
By clicking on "EVENT MERKEN" within the lecture descriptions you can arrange your own schedule. You can view your schedule at any time using the icon in the upper right corner.
Claudia Pohlink beschäftigt sich seit vielen Jahren mit Daten und KI. Dabei beobachtet sie die Trends und Entwicklungen auch außerhalb Europas und hat schon den einen oder anderen Hype überlebt.
Sie stellt konkret die Datenjourney der Deutschen Bahn vor. 2020 beschließt der Vorstand den Grundsatz des freien Datenzugangs und der freien Datennutzung innerhalb der Bahn, Ausnahmen sind zu begründen. Ein revolutionärer Beschluss, der zudem zu konzernweiter Datentransparenz verpflichtet. Wie sehen die…
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/janine.ellner
Die Schlagworte 'Data Driven Company' und 'Data Driven Culture' sind mittlerweile in aller Munde. Die Firma congstar hat sich das Ziel gesteckt, diese Schlagworte mit Leben zu füllen. Unsere Vision: Wir wollen analytisches Arbeiten bzw. die Nutzung von Analysen nicht als elitäre Kunst von wenigen etablieren, sondern als etwas 'für jeden'. Wie wir diese Herausforderung angehen,…
Data Lakehouse, Data Fabric, Data Warehouse, Data Lake, Data Mesh, Data Estate, Data Virtualisation, Data Vault ... was sind die Kriterien für eine anwendungsfallabhängige Auswahl einer Datenarchitektur? Was sind technische und was eher organisatorische Konzepte? Wie lässt sich das mit den Anforderungen an moderne analytische Datenplattformen von Governance über data quality bis responsibility übereinbringen? Begriffsbestimmung und Einordnung der Konzepte. Erfahrungen aus dem Projektgeschäft…
In der Vergangenheit wurden Daten häufig in einem monolithischen Data Warehouse gespeichert. Heute, mit dem Aufkommen von Big Data und dem Ruf nach Advanced Analytics, müssen bestehende Datensilos aufgebrochen werden. Eine besondere Herausforderung obliegt dabei der Öffnung des SAP-Universums und dem Zugriff auf die Datenschätze der unterschiedlichen SAP-Quellsysteme.
Der Dozent präsentiert, wie SAP und Databricks Lakehouse auf direktem Wege kommunizieren können, ohne dass es…
Python erfreut sich immer größerer Beliebtheit im Datenmanagement. Der Einstieg in Python mit Paketen wie dbt, pyspark, keras, pytorch ist einfach. Rapid Prototyping mit Notebooks und die ersten Codezeilen sind schnell entwickelt. Doch sobald der Code produktiv geht ... (und manche wären schon froh, wenn der Code überhaupt produktiv geht).
Die Session geht auf Pakete und Techniken rund um Code-Formatierung, Linting, Testing, Security, Dokumentation, Versionskontrolle ein, um das Datenmanagement…
It's no secret that in today's data-driven world, companies that effectively use data to make decisions have a competitive advantage. Our talk is not about why you should become a data-driven company, but how you should do it. The focus will be on guiding the change of the organizational mindset through a holistic approach including people, infrastructure and use cases for unlocking the full potential of data! The talk will also touch on the challenges that companies face in their data-driven…
Nach einem erfolgreichen PoC werden viele ML-Vorhaben aus Gründen des zeitlichen Aufwandes nicht produktiv umgesetzt. Im Bereich der Prozesssteuerung von Großanlagen können jedoch Optimierungen durch Machine Learning immense Kosteneinsparungen und Produkteffizienz bedeuten. Wir beschreiben den Prozess der Einführung von MLOps in der Azure Cloud zur Steuerungsoptimierung Hunderter Luftzerlegungsanlagen. Wir gehen auf Herausforderungen und Lösungsansätze ein, um MLOps in der Cloud…
High-quality analyses are only useful if they are available in time. By analysing data near-real time, highly up-to-date evaluations can be produced. Based on the technological foundation of Splunk, the workshop will offer practical insights into stream data analysis. Evaluating data streams directly offers considerable added value, especially for time-critical or alarm-based systems. The analysis already takes place during data transmission, as the data stream is potentially infinite.
Maximum…
In diesem Vortrag stellen die beiden Referenten die DOAG als Verein und ihre aktuelle Ausrichtung vor und nehmen Position ein zu den relevanten Themen aus dem Umfeld DATA Analytics und KI. Im Anschluss an die Vorstellung des Vereins und seiner Struktur und Zielsetzung werden im Gespräch die Schwerpunkte der Data Analytics Community in der DOAG vorgestellt, betrachtet und eingeschätzt. Dabei nehmen wir insbesondere Bezug auf die Inhalte der nachfolgenden Vorträge und Diskussionen. Die rasant…
Die Umsetzung einer erfolgreichen Datenstrategie ist nicht einfach, aber die Einschränkungen, die durch zentralisierte Punkt-zu-Punkt-Batch-Architekturen entstehen, machen es noch schwieriger. Daten-Streaming-Plattformen heben diese Beschränkungen auf, indem sie Echtzeit-Konnektivität zwischen SaaS-, Analyse- und Datenbanksystemen ermöglicht, die es mehr Nutzern erlaubt, mehr Daten mit weniger Redundanz und weniger Abhängigkeit von zentralisierten Teams zu nutzen. Was wollen wir an diesem…
Discover the power of combining Amazon Web Services (AWS) and Confluent for real-time analytics and data streaming. This talk explores the synergistic capabilities of both platforms in building scalable, reliable, and high-performance streaming architectures.Learn how AWS data services and Confluent's Apache Kafka-based platform for managing event-driven architectures combine to deliver a solution for your business. Gain practical insights into integration strategies, data transformation, stream…
Reports play a crucial role in both business operations and meeting regulatory requirements but managing a complex IT system with data flowing through various technologies can make it challenging to identify potential issues and create reliability.
Unternehmen stellen sich die Frage: Wie stehen wir zu Daten? Wie prägen sie unsere Entscheidungen und Prozesse? Die Data Culture eines Unternehmens umfasst datenbezogene Werte und Verhaltensweisen. Um eine erfolgreiche Transformation der Data Culture zu erreichen, muss zunächst die aktuelle Kultur des Unternehmens erfasst und die unternehmensspezifische Zielkultur bestimmt werden. Wir berichten über unser Best-Practice-Framework und welche Blueprints Unternehmen nutzen können, um ihre…
Der Modern Data Stack hat die letzten Jahre deutlich an Popularität gewonnen. Wie schlagen sich etablierte Best-of-Suite-Anbieter im Vergleich? Die Vielfalt an Ansätzen für Data & Analytics Cloud-Architekturen wächst und gewinnt an Dynamik. Nach dem Fail-Fast-Ansatz müssen Komponenten ihren Wert beweisen oder werden ausgetauscht.
In dem Vortrag wird der Frage nachgegangen, was die Stärken einer 'Best of Breed'-Architektur im Sinne des Modern Data Stack sind und wann integrierte Lösungsanbieter…
Mit Blick auf die zunehmende Durchdringung von AI in den Geschäftsmodellen, regulatorischen Anforderungen wie dem EU-AI-Act und fehlendem Vertrauen der Kunden in AI stellt sich die Frage, wie Unternehmen dem gerecht werden. Welche Herausforderungen stellen sich bei der Umsetzung? Was heißt das für Modelle, Datenerhebung und Datenvorbereitung? Wir geben einen Einblick in das Thema Responsible AI, erläutern Herausforderungen und geben konkrete Ansätze für die Umsetzung anhand praktischer…
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/dirk.lerner
Wie können immer wiederkehrende Aufgaben vereinfacht werden? Die Frage nach der Automatisierung von Datenlogistikprozessen in einem Data Warehouse beschäftigt heute die Projektteams. Der Wunsch nach einem umfassenden Automatisierungsprodukt ist dann meist sehr schnell da. Die Erwartungen sind hoch, die Enttäuschung (nach der Produktauswahl) nicht selten.
In dieser Session gibt…
Um datenorientiert agieren zu können, hat die Volksbank Wien vor, die komplexe Datenlandschaft zu vereinfachen und verständlich zu machen. Die organisatorische Struktur wird an die aktuellen Herausforderungen angepasst. Dazu werden 2 miteinander agierende Metadatenwelten erstellt, um das Fachdaten- und Datenqualitätsmanagement bestmöglich abwickeln zu können. Für die Bank ist es notwendig, eine Data Governance-Policy, Data Governance-Richtlinien, eine Datenstrategie und ein neues Fachdatenmodell…
Der Aufbau einer fachlich individuellen und durchgängig integrierten Systemlandschaft ermöglicht den fachbereichsübergreifenden Nutzern die volle Ausschöpfung des mehrstufigen Prognosepotenzials - alles in einer zukunftssicheren Umgebung.
Zielpublikum: Dateningenieur:innen, Datenwissenschaftler:innen, Projektleiter:innen, Entscheidungsträger:innen
Voraussetzungen: Grundkenntnisse in Maschinellem Lernen, Erfahrung in der Nebenkostenabwicklung
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Die…
Die Verantwortung und das Wissen über Daten und deren Analyse liegt im Fachbereich. Diese fachlichen Mitarbeiter benötigen mehr Möglichkeiten, um erweiterte Analyse-Techniken, inklusive Machine Learning, mit einfach zu bedienenden Tools nutzen zu können. Wie Oracle mit der Autonomen Datenbank, als Self-Service Datenquelle und mit der Analytics Cloud, als Self-Service BI, dies verwirklichen kann wird im Vortrag anhand einer anschaulichen Live-Demo gezeigt.
Have you ever wondered how a modern event analytics pipeline is different from a classical ETL setup? In this talk you will learn how to design and set up an analytics pipeline in just a few minutes, using Kafka for delivery, ksqlDB for preprocessing, and Apache Druid for real time OLAP.
Voraussetzungen: Basic knowledge of what Kafka and Data Streaming are
As companies undertake their digital transformation journey's, they are generating more data than ever before. Data and AI have become essential for companies to stay competitive in today's digital age. AI-powered technologies such as machine learning, natural language processing, and computer vision are helping companies to gain insights from data and make better business decisions. With the help of increasing computer power, AI algorithms can now be used to analyze vast amounts of data that…
Anhand ausgewählter Use Cases soll die Entwicklung von Self-Service Data Analytics innerhalb von Siemens Energy dargestellt werden. Schwerpunkt ist die Umsetzung von datengetriebenen Projekten durch verschiedene Fachbereiche. Weiterhin wird auf die erfolgreiche Einführung neuer Projekte mit Hilfe von Hackathons eingegangen, sowie den Nutzen von internen Communities bei der Problemlösung.
Met Éireann, der nationale meteorologische Dienst Irlands, hatte eine anspruchsvolle Aufgabe: genaue Wettervorhersagen für die irische Öffentlichkeit bereitzustellen und mehrere Branchen wie Luftfahrt, Landwirtschaft, Transport und Notdienste zu unterstützen. Um dies zu erreichen, mussten sie große Datenmengen in Echtzeit verarbeiten und analysieren. In dieser Präsentation wird Actian's Datenexperte, Robert Gorsuch, zeigen, wie Met Éireann dies mit Hilfe von Actian Avalanche, der…
Datenanalyse und datengesteuerte Entscheidungen nehmen in Unternehmen und Organisationen aller Art einen immer größeren Stellenwert ein. Gleichzeitig werden über Regulatorik und Kundenerwartungen immer höhere Anforderungen an Transparenz, Data Governance und Robustheit von Datenanalysen und automatisierten Entscheidungsprozessen gestellt. Metadaten sind ein Schlüssel, solche Anwendungen vertrauenswürdig und effizient aufzubauen. Aktive Metadaten machen den gesamten Fluss der Daten durch alle…
Die Freenet AG betreibt seit vielen Jahren erfolgreich ein Data Warehouse im eigenen Rechenzentrum. Architektur und Technologien wurden sorgfältig ausgewählt und erfüllten die damaligen Anforderungen vollkommen. Doch was soll man tun, wenn die Quellsysteme nach und nach in die Cloud migriert werden? Allein die Kosten der regelmäßigen Datenübertragung aus der Cloud in das On-Prem-DWH lassen diese Lösung nicht mehr wirtschaftlich erscheinen.
Die Freenet AG stellt sich nun dieser Herausforderung…
Am Beispiel der Deutschen Pfandbriefbank AG zeigen wir Ihnen, wie Sie durch das Zusammenspiel von D-QUANTUM und der Metadata API von bluetelligence einen substanziellen Mehrwert erzeugen:
Getrieben durch den enormen internationalen Wettbewerbsdruck im Online-Handel muss sich das E-Commerce-Unternehmen Otto ständig weiterentwickeln, um mit der Konkurrenz Schritt zu halten oder ihr sogar voraus zu sein.
Dies stellt große Herausforderungen an Architektur und Organisation. Data Mesh als neues Architekturparadigma adressiert diese Anforderungen und liefert hier wichtige Impulse.
In dieser Case Study gehen wir von der Pain Point Analyse des internen Think Tanks aus und betrachten…
83 % of CEOs want their organisation to be more data driven. Sharing clear corporate goals and objectives is a start, but you will not succeed without a deeply understood, and widely shared context of the critical data that underpins these goals and objectives.
Unfortunately getting them off the ground, making them sustainable, and proving ongoing value requires targeted, strategic approaches depending on where you are in your journey.
90 % of businesses fail miserably to identify, track, and…
How we designed a model driven implementation approach to improve development effectiveness at BNP Paribas Cardif
Analytics spielt eine wichtige Rolle bei der digitalen Transformation der Steuer- und Zollfunktion von Siemens. Es hilft dabei, Steuer- und Zollprozesse zu optimieren, Compliance zu verbessern und Risiken zu managen. Die erfolgreiche Nutzung erfordert jedoch nicht nur technische, sondern auch kulturelle und organisatorische Anpassungen, wie die Etablierung einer datengetriebenen Kultur und die Schulung der Mitarbeiter. Der Vortrag zeigt die Analytics-Strategie von Siemens in diesem Bereich und…
Rolls-Royce Power Systems has been for decades at the forefront of innovation and customer experience. The company is taking a holistic approach to data exploitation as it sets itself up for the future and transforms from a traditional engine manufacturer to a provider of integrated & sustainable solutions. Join this session with Aleksander Giece to learn how Rolls-Royce Power Systems is modernizing its data architecture to meet evolving business needs and drive new levels of performance.
Target…
Die EU-Kommission schafft mit der KI-Verordnung und der KI-Haftungsrichtlinie einen Regelungsrahmen für den KI-Einsatz. Je nach Risikokategorie sind verschiedene Pflichten zu erfüllen; bestimmte Nutzungen werden verboten. Bei der Haftung wird teils eine Kausalität zwischen KI-Einsatz und Schaden unterstellt. Die Regulierung gilt auch für KI-Systeme, die bei Inkrafttreten bereits produktiv sind. Lernen Sie die zentralen Regelungen kennen. Welche konkreten Anforderungen an die IT ergeben sich?…
Data Mesh ist eine dezentrale Datenarchitektur, die viele Herausforderungen zu lösen verspricht. Im World Cafè „Data Mesh“ werden provokante Thesen und Fragestellungen zu diesem Ansatz in Kleingruppen diskutiert und anschließend die Ergebnisse allen vorgestellt. Ziel ist, dass sich die Teilnehmer selbst einbringen können und gleichzeitig ein differenziertes Bild auf ausgewählte Aspekte des Data Mesh-Ansatzes erhalten.
Durch die Umstellung auf ein Event-Driven-System vor ca. 1,5 Jahren ist die Datenmenge um das Zweihundertfache gestiegen. Von ursprünglich zwanzig bis fünfunddreißig GB auf 6-7 TB pro Monat. Das bringt weitreichende Herausforderungen hinsichtlich Technologie, Organisation, aber auch in Bezug auf die Unternehmenskultur mit sich. Kommt mit auf die Daten-Reise der flaschenpost und erfahrt, warum am Ende eine Lakehouse-Lösung in Kombination mit einem Mesh-Ansatz genau die Bedürfnisse der…
In dem Vortrag geben wir am Beispiel eines Print-Mailings einen vollumfänglichen Einblick in unseren MLOps- und Kampagnenprozess: Von der Erstellung eines Scoring-Modells zur Auswahl der Zielgruppe, über das Deployment und die automatisierte Verwendung dieses Modells auf einer Kubernetes-Plattform, bis zur Ausspielung des Print-Mailings an die Teilnehmer und die Erfolgskontrolle zeigen wir, wie wir Marketingbudgets zielgerichtet verwenden, um Teilnehmergruppen entsprechend der Zielvorgabe zu…
Ethische KI, aber wie?
Spätestens seit ChatGPT ist Künstliche Intelligenz (KI) massentauglich geworden. Sehr schnell wurden Rufe nach der Regulierung von solchen Anwendungen laut und die EU arbeitet an einem AI Act. Italien hat als erstes Land ChatGPT temporär verboten, unter anderem aufgrund ethischer Bedenken. Wie bei zahlreichen Technologien zuvor, folgt auf die erste euphorische Welle ein vorsichtigerer Ansatz mit Fokus auf potenzielle Gefahren und gesetzlicher Regulierung.
Die interaktive…
Integration architectures are the key to modern architectures in every case. It is valid for green-field project, but especially in evolving existing architectures to modern architectures. To bring legacy systems in the cloud highly decoupled systems are necessary. To do so, event-driven architectures are necessary, because decoupling can easily be achieved via events. The talk shows how an event-driven architecture can help to evolve an existing architecture to the state of the art.
Der Weg vom Legacy ERP-System in ein SAP S/4HANA ERP-System ist gepflastert mit Herausforderungen:
Wie migriert man Archivdateien? Kann man die Daten reorganisieren? Was tun, wenn viele Legacy Systeme gemerged in ein neues System fließen sollen? Wie bekomme ich einen Post-Load-Report? Und können wir bei der Migration nicht gleich unsere Datenqualitätsprobleme lösen?
In diesem Vortrag zeigen wir Ihnen die "cimt S/4HANA Migration Factory". Unsere Lösung, um bestehende Legacy Systeme in ein…
Data & Analytics-Architekturen und BIA-Systeme liefern die Basis für Entscheidungen, treffen sie aber meist nicht. Insofern ist die Entscheidungsfindung selbst von hoher Bedeutung: Auch auf Basis guter Daten können unbeabsichtigt und unnötig schlechte Entscheidungen getroffen werden. Im Vortrag werden die Grundzüge der normativen Entscheidungstheorie vermittelt. Auf dieser Basis wird dargelegt, welche Fehler vielfach begangen werden und wie sich diese verhindern oder begrenzen lassen.
Zielpublik…
Der Modern Data Stack ist in aller Munde. Aber nicht nur der Modern Data Stack, sondern auch für die Zusammenarbeit im Analytics Engineering-Team ergeben sich dadurch neue Möglichkeiten, und darüber hinaus kann die Zusammenarbeit mit dem Fachbereich auf neue Beine gestellt werden. Aber welche Tools haben sich bewährt und was sind die Einsatzzwecke? Konzentriert wird sich in dieser Session auf Visual Studio Code und sinnvolle Erweiterungen für eine optimierte Entwicklerumgebung.
Zielpublikum:…
This session looks at closing the loop between analytics and operations. It looks at embedding BI and machine learning models into operational business processes to guide and drive decisions and actions in everyday business operations. It looks at how to create intelligent applications, and at using AI driven automation for right-time business process optimisation and decision management.
Target Audience: Solution Architects, Business Analysts, CDOs, CDAOs, Process Specialists, Data Scientists,…
Die Modellierung von CRM-Daten mithilfe von Data Vault 2.0 ist eine typische Aufgabe in Enterprise Data Warehousing-Projekten. In diesem Beitrag stellen wir verschiedene Design Patterns aus unserer praktischen Erfahrung in diesen Projekten vor. Weiterhin gehen wir auf typische Herausforderungen mit CRM-Installationen ein und stellen unsere Best Practices in diesem Bereich vor. Der Beitrag basiert auf unseren internen Modellierungs-Empfehlungen für CRM-Systeme.
Zielpublikum: Data Vault…
Vom Anforderungsmanagement zum fertigen Bericht. In diesem Vortrag werde ich anhand eines Use Case aus unserer betrieblichen Praxis erläutern, wie die Business Needs des Fachbereichs ermittelt, gesteuert und schließlich in einem fertigen Reporting zur Verfügung gestellt werden. In einem praxisorientierten Ansatz, den wir stetig weiterentwickeln, wird aus einer Anforderung moderne Wirklichkeit.
Zielpublikum: PowerBI-Entwickler:innen, Projektleiter:innen, Entscheider:innen, Controller:innen,…
Der Vortrag beschäftigt sich mit Good Practices für die Entwicklung von Machine Learning-Pipelines und einer praxiserprobten Architektur in der Google Cloud. Es zeigt, wie man Data-Engineering-Herausforderungen, die Erstellung von Machine Learning-Modellen und MLOps-Betriebskonzepte miteinander verbinden kann, um effiziente und skalierbare Workflows zu erstellen. Durch die Auswahl der passenden Services schafft man eine zukunftsorientierte Architekturlösung.
Zielpublikum: Data Engineer, Data…
Wir programmieren gemeinsam von der grünen Wiese aus einen vollumfänglichen Schachcomputer: Spielbrett und Figuren zeichnen, alle Regeln (inkl. Bauernumwandlung, en passant, Rochade, Fesselung, ...), lange Notation, unterschiedliche Computergegner, Taktikstufen, Zugvorausberechnung usw. Das alles mit reinem T-SQL! Dank modularem Aufbau für Anfänger und Profis gleichermaßen geeignet. Alle relevanten Programmiertechniken: Rekursion, Pivotierung, Prozeduren, Funktionen, Laufzeitoptimierungen,…
Eingeleitet mit einem Impulsvortrag über Data Mesh diskutieren Andreas Buckenhofer und Armin Wildenberg mit weiteren eingeladenen sowie spontanen Teilnehmern im Rahmen einer offenen und interaktiven Runde im FishBowl Format über das notwendige Mindset bei der Verfolgung der Datennutzung nach dem Ansatz Data Mesh.
Wo unterscheidet sich Data Mesh von Data Ware House und Data Lake? Wie verändert sich die Sichtweise auf die Daten? Welche Veränderungen ergeben sich in der Zusammenarbeit? Sind wir…
Data in motion itself requires a rethinking of how to handle data and what an IT architecture should look like. This opens new ways of analyzing data in near real-time. We’ll have a look at the possibilities of data analytics in motion.
Prerequisites: none
Level: Basic
In nur 20 Minuten können Sie eine hochmoderne Datenplattform einrichten, die Business Intelligence und Datenmanagement vereinfacht. Verwenden Sie eine attraktive Drag & Drop-Schnittstelle, um Ihre Analysen effizienter und einfacher zu gestalten, ohne dass Programmierkenntnisse erforderlich sind! Die Erstellung aller notwendigen Tabellen, Felder, Strukturen und Pipelines wird automatisiert, während Governance, Orchestrierung und Dokumentation im Hintergrund sichergestellt werden, wobei…
Die Reise hin zum datengesteuerten Unternehmen geht über die reine Analyse von Daten hinaus. Viele Datenprojekte bringen nicht den geplanten Erfolg und Nutzen. Auch wenn das Projekt erfolgreich abgeschlossen wurde, die Ergebnisse den ursprünglichen Business Case bestätigen, haben Unternehmen Schwierigkeiten, die Ergebnisse zu nutzen. Die Befähigung der Mitarbeiter und Change Management in Datenprojekten werden oft vernachlässigt. In diesem Vortrag beleuchten wir, wie Data Storytelling helfen…
Dbt hat sich als das ELT-Tool der Wahl des Modern Data Stack etabliert und erfreut sich immer größerer Beliebtheit. Das Tool ist Code-basiert und kann für SQL basierte ELT-Prozesse zur Transformation von Daten genutzt werden. Da es sich häufig noch nicht im produktiven Einsatz befindet, aber von vielen als mögliches Tool geprüft wird, wollen wir unsere Erfahrungen teilen, um den Einstieg zu erleichtern. Wir stellen dbt in diesem Vortrag praktisch vor, zeigen, wie es sich in der Nutzung anfühlt,…
Governance im Data Mesh ist föderal und soll möglichst automatisiert sein. Eine Gruppe mit Expert:innen und Repräsentanten der Teams entscheidet über die Spielregeln im Data Mesh, bspw. zu Interoperabilität oder Security, mittels globaler Policies, die von der Plattform automatisiert werden. Aber wie genau soll das funktionieren? Wir stellen ein Governance-Betriebsmodell vor, basierend auf dem Ansatz von Architecture Decision Records. Wir diskutieren Beispiele globaler Policies, und wie diese…
Natürlich ist Künstliche Intelligenz nicht das Allheilmittel, um aus den aktuellen Problemen zu führen. Aber je besser die Produktion, desto besser die Wirtschaftlichkeit und die Standortsicherheit.
In diesem Vortrag werden Praxisbeispiele im Kontext Industrie 4.0 aufgezeigt, wie Energie mittels KI gespart wird, wie Ausschuss reduziert wird und wie Maschineneffizienz gesteigert wird.
Zielpublikum: Verantwortliche in der Produktion, bspw. Qualitätsmanager:innen, Energiemanager:innen,…
Welche KI benötige ich, und wenn ja, wie viele? Die Erfolge von Chat GPT und ähnliche Machine Learning Modelle lassen anderes vermuten, aber erfolgreiche digitale Assistenten beruhen nicht allein nur auf der Wahl der richtigen Künstlichen Intelligenz (KI). Die Entwicklung digitaler Assistenten ist ein Strategiespiel, besonders wenn das Entwickler Team den Umgang mit Sprache als Medium innerhalb der Anwendung nicht gewohnt ist. Gerade am Anfang eines Projektes gibt es eine Menge von Fragen zu…
We will learn about the latest MLOPs strategies and how to approach application deployment for production using various cloud-native technologies.
We will illustrate how the infrastructure, model and pipeline templates built by Data Reply reduce the time needed to get a QA application into production, allowing manufacturers to reap the significant benefits these machine learning applications can offer.
Digital transformation forces companies to consider data an asset, making new business models or processes possible. Fast-changing markets lead to fast-changing business requirements. What delivers value today will not necessarily have value tomorrow.
That is why data transformation is so significant: it should transform data into a desired format with business value today and tomorrow.
Organizations lost control over data delivery:
Obwohl Unternehmen viel in Tools, Technologien, Prozesse und Ausbildung ihrer Mitarbeitenden investieren, wird der volle Wert von Daten & Analytics oft nicht ausgereizt.
In meinen 20 Jahren Erfahrung im Bereich 'Reporting, BI und Analytics' bin ich zum Schluss gekommen, dass der weiche Faktor 'Mensch' dabei eine entscheidende Rolle spielt.
Anhand von einigen 'typischen' Themen möchte ich, mit einem Augenzwinkern, einen Realität-Check vornehmen und mögliche Auswege aus der bestehenden Diskrepanz…
Stell Dir vor, Du könntest Deine Datenplattform ohne Widerstand beladen, Rohdaten aus heterogenen Quellen einfach sicher persistieren, Schema Drift wäre auch kein Problem und eine automatische Historisierung inclusive. All das ohne eine Zeile Code, rein durch Konfiguration. Als ob das nicht genug wäre, erstellst Du auf Knopfdruck eine vollständige Sandbox mit allen Daten für die weitere Entwicklung. Geht nicht? Geht doch! Wir zeigen Dir, wie die Kombination von Loading Framework, Snowflake und…
Was kann Künstliche Intelligenz heute leisten? In diesem Vortrag zeigen wir anhand einer Vielzahl von Live-Beispielen, ob der Begriff ein überhyptes Buzzword oder die Schlüsseltechnologie der digitalen Zukunft ist. Das TNG Innovation Hacking Team arbeitet seit Jahren an zahlreichen KI-Projekten im Bereich Computer Vision und Natural Language Processing. Kommen Sie auf eine Reise durch die Welt der Künstlichen Intelligenz und deren Architektur, vorgestellt am Beispiel verschiedener…
Datenmanagement und Business Intelligence sind eng verwobene Bereiche, werden allerdings in vielen Unternehmen in separaten Teams und Abteilungen strukturiert. In diesem Vortrag wollen wir vorstellen, wie Pixum Data Warehouse Automation nutzt, um damit eine zentrale Anlaufstelle für Daten und Dashboards im Unternehmen bereitzustellen.
Zielpublikum: Entscheider:innen, IT-Architekt:innen, Data Engineers
Voraussetzungen: Basiswissen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Datenmanagement…
Die Entwicklung und Einführung eines Data Governance-Programms und eines Datenkatalogs ist für jedes Unternehmen eine Umstellung. Zuständigkeiten und Verantwortung für Daten wollen explizit definiert, Prozesse eingeführt und Wert und Bedeutung von Daten sichtbar gemacht werden.
Der Vortrag beleuchtet anhand einiger Fallbeispiele, wie die verschiedenen Herausforderungen eines solchen Vorhabens gemeistert werden und sich der Fortschritt messen lässt, damit ein langfristig erfolgreiches Programm…
Eine Möglichkeit, die Nachvollziehbarkeit der Entscheidungen von KI-Modellen zu erhöhen, ist Explainable AI (XAI). In unserem Vortrag geben wir eine Einführung in dieses sehr relevante und spannende Feld. Anhand eines Use-Cases zeigen wir die Wichtigkeit von XAI auf und gehen tiefer auf einige Methoden ein, die helfen können, die gestellten Anforderungen zu erfüllen. Zusätzlichen diskutieren wir den konkreten Nutzen, den XAI bringen kann, anhand einer Reihe von Beispielen aus der Praxis und…
Wie gelingen und wieso scheitern Projekte? In der Regel hören wir mehr von gescheiterten als gelungenen Projekten. Welche Faktoren machen erfolgreiche Projekte aus? Im Rahmen dieses interaktiven Vortrages werden insbesondere die Rahmenbedingungen von Projekten (z.B. Termindruck) und die Beweggründe von Projektmitgliedern in einer Erzählung aus einem "alltäglichen" Projekt beleuchtet. Über eine Retrospektive zu drei Meilensteinen des Projektes werden Parallelen zu anderen Projekten gezogen und…
Willkommen in der Ära der Demokratisierung von Unternehmensdaten! Erfahren Sie, wie „Data Democratization“ Ihre Organisation agiler, datengetriebener und innovativer macht. Bessere Entscheidungen, intensive Zusammenarbeit und eine offene, datengesteuerte Kultur – lieber heute als morgen!
Erfahren Sie in unserem Vortrag wie Ihre Daten einen Mehrwert für Ihr Unternehmen schaffen können, wenn Sie Unternehmensdaten „demokratisieren“. Doch was ist Data Democratization überhaupt? Welche…
2017 machte Jonas sich auf, auf der Kontinentaldurchquerung durch Europa und Asien seinen ersten Weltrekord auf dem Fahrrad aufzustellen.
Danach kündigte er seinen Job im Software-Vertrieb in München, wo er seit seinem International Business Studium arbeitete, und stellte in den Folgejahren weitere Weltrekorde auf den grossen Ultradistanzen Alaska-Feuerland und Nordkap-Kapstadt auf.
Im September 2020 dann, brach Jonas zu seinem bislang grössten Abenteuer auf, dem Triathlon um die Welt.“
…
Genieße kühle Drinks und kleine Snacks, während du wertvolle Kontakte knüpfst und den ersten Messetag revue passieren lässt!
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/michael.zimmer
Unternehmen stehen regelmäßig vor der Herausforderung, Datenorganisationen mit Business und IT erfolgreich zu organisieren. Hier stellt sich oft die Frage nach notwendigen Rollen, Werkzeugen, aber auch Vorgehen. Im Vortag wird die Datenstrategie der Zurich Deutschland kurz eingeführt, das Arbeitsmodell vorgestellt und aufgezeigt, wie sich die Zurich Deutschland in den letzten…
In verteilten Data Mesh-Architekturen spielt die Sammlung, Anreicherung und Verteilung von Metadaten eine zentrale Rolle, um das flüssige und sichere Arbeiten an und mit Datenprodukten quer durch die Organisation und darüber hinaus zu ermöglichen. Der Vortrag gibt Einblicke in Zalandos Metadata Mesh und wie mithilfe von Metadaten über Cloud-Provider und Technologien hinweg effizient mit Daten gearbeitet werden kann.
Zielpublikum: Data Engineers, Principals, Architekt:innen, Leiter:innen,…
This talk will explore the concept of automated text anonymization powered by machine learning, a solution that can quickly and accurately protect sensitive data. The talk will cover all the necessary concepts and considerations to implement such a solution in the industry. Some of the key concepts that will be discussed include the data labeling process, training NLP models, a human-in-the-loop process to ensure privacy and monitor the performance of the ML model, and implementation of MLOPS…
Häufig kann Self-Service BI die hohen Erwartungen an Qualität und Vorbereitung nicht erfüllen, da die Reporting-Plattform den Fachanwender:innen wichtige Services nicht oder nur unzureichend anbietet. Durch Services wie CI/CD-Pipelines oder eine Testautomation werden Ressourcen freigesetzt, die Fehlerquote verringert und die Prozesse beschleunigt. Wir geben einen Überblick, welche technischen Services eine Reporting-Plattform bieten sollte, um Anwender von Self-Service zu empowern, und welche…
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze
Laut dem BARC Data, BI & Analytics Trend Monitor 2023 sind die Top 5 Trends Master data / DQ Management, Data Culture, Data Governance, Data Discovery und Self-Service Analytics. Auch wenn der Begriff ,Data' dabei weiter gerne verwendet wird, drehen sich alle diese Trends eher um einen effizienten Umgang und den Mehrwert aus den Daten und nicht um die Daten selbst. Nach…
Agile Vorgehensmodelle haben sich in der SW-Entwicklung flächendeckend etabliert. Viele Unternehmen stehen jedoch vor der Herausforderung, Agilität und die damit verknüpfte Philosophie nicht nur auf der operativen, sondern auf allen Ebenen zu nutzen. Frameworks für die Skalierung agiler Vorgehensmodelle (z.B . SAFe) sind dafür nur bedingt geeignet.
Der Vortrag führt die Themen Agile Transformation, Digitalisierung und New Work zusammen und zeigt am Beispiel der esentri AG, wie eine solche…
Diese Session ordnet die Themenfelder und stellt den organisatorischen Rahmen dar, in den die Nutzung von Analytics in Unternehmen eingebettet sein sollte. Dazu werden zunächst statistische Grundlagen aufgefrischt. Darauf aufbauend werden Algorithmen und deren potenzielle Eignung für Anwendungen vorgestellt und diese anhand kleiner Beispiele durchgerechnet.
Maximale Teilnehmerzahl: 20
Bitte halten Sie einen Taschenrechner (die Taschenrechner-App Ihres Smartphones ist ausreichend) für diese…
DWH automation is wonderful, but which tool? Using 13 typical data constellations, a fictitious data model is presented that can be used to evaluate the implementation performance of an automation tool. In 4 follow-up presentations, one implementation each will be presented based on the data.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
The automation of data warehouse development, especially in connection with Data Vault, drastically increases the speed of…
Den Wert einer Datenplattform zu realisieren, scheitert häufig an der Akzeptanz der Nutzer. In diesem Vortrag erfahrt Ihr, wie Google Menschenzentriertes Plattformdesign einsetzt, um Datenplattformen zu entwickeln, die genau auf die Bedürfnisse ihrer Benutzer zugeschnitten sind und so schnell und nachhaltig Wert zu schaffen.
Voraussetzungen: Grundlagen in Datenarchitekturen, Grundlagen in agilem Arbeiten, Grundlagen im Produktmanagement
Schwierigkeitsgrad: Fortgeschritten
In diesem Hands-On Workshop erhalten Sie eigenen Zugang zu den Kursmaterialien sowie einer geteilten SAP Datasphere Umgebung. Mit der Hilfe von SAP-Mentoren werden Sie durch die Kursmaterialien geleitet und führen die Übungen durch um erste, eigene, Erfahrungen mit der SAP Datasphere zu sammeln.
Inhaltlich werden wir uns dem Thema Data Modeling, unter Zuhilfenahme des Data Layers und des Analytical Model, sowie dem Thema Data Governance, unter Zuhilfenahme des Data Catalog, widmen.
In an ideal world, every data user at a company has timely access to the data and insights they need, in the format they need, using tools that they are familiar with.
This presentation covers the three key factors to consider when you establish your data strategy (the “3 E’s”)
Mit der Weiterentwicklung zu einem eigenständigen Kreditinstitut stand die Investitionsbank Sachsen-Anhalt vor der Anforderung, ein bankenaufsichtsrechtlich konformes Datenmanagement zu bauen. In diesem Fachbeitrag werden die folgenden Punkte näher beleuchtet:
The definition of a well-designed, stable & scalable data architecture has changed due to the increasing complexity & volume of a modern system landscape. To keep up with the latest technology, this session will provide an overview of the components of a modern data architecture. By outlining the benefits of a well-designed & structured data architecture, this session will provide clear guidelines for the current data management challenges in the area of technology, processes & organization.
Tar…
Die systematische Nutzung von Freitexten bietet ein großes Potenzial für die Gewinnung neuer Erkenntnisse oder die Automatisierung von Prozessen, das Unternehmen verstärkt nutzen wollen. Der Workshop soll Datenanalysten den Einstieg in das Thema Text Analytics erleichtern. Anhang konkreter Anwendungsbeispiele werden die nötigen Schritte und aktuelle Analyse- und maschinelle Lernverfahren erläutert. Für die Datenvorbereitung und das Mining wird dabei Python genutzt, die Auswertung und…
Was hat Self-Service BI mit der Führerscheinprüfung zu tun?
Self-Service BI und Analytics wird oft selbstverständlich gelebt, ist aber nicht einfach abzugrenzen und zu erklären. In dieser Session nähere ich mich einer Erklärung anhand von Beispielen aus dem realen Leben (z. B. Straßenverkehr) und ordne dabei plakativ die einzelnen Komponenten wie Data Literacy, Datenkultur und Self-Service Governance ein. Dieser Schritt hilft bei der Prüfung und Einordnung von Thesen zum Thema Self-Service &…
Duplikaterkennung in Stammdaten ist essenziell für alle Geschäftsberichte und -analysen. Klassische Methoden erfordern die manuelle, datenspezifische und zeitintensive Formulierung von Regeln und Ähnlichkeitsmaßen. Machine Learning-Methoden hingegen sind in der Lage, Muster und Regeln automatisch abzuleiten, um Duplikate zu erkennen und die Datenqualität in den Stammdaten zu erhöhen. In diesem Beitrag wird gezeigt, wie eine bestehende Master Data Management Software um individuelle und…
Wie datenkompetent ist ein Unternehmen, wenn ein Großteil datenintensiver Aufgaben in Excel zurechtgeschustert wird? Wie geht man mit plötzlichen Abweichungen und Fehlern in Auswertungen und Dashboards um? Was ist, wenn man die eigentliche Arbeit vor lauter Datenverwaltung nicht mehr schafft? Solche Fragen werden entweder nicht gestellt oder bleiben zu lange unbeantwortet. Erfahren Sie, wie Unternehmen mithilfe der NewDataWork-Prinzipien lernen können, organisatorische und individuelle…
Diese Session erarbeitet Auswahlkriterien von Algorithmen und überträgt die Umsetzung in das Werkzeug RapidMiner. Natürlich ist dies nur ein Werkzeug unter vielen, jedoch soll es den Teilnehmern einen Eindruck vermitteln, wie in Projekten mit großen Datenbeständen und entsprechenden Analyseanforderungen werkzeugunterstützt gearbeitet wird.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten…
With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with datavaultbuilder. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald has been explained by DDVUG in session 1 previous lecture.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
The fictitious company Willibald has asked Datavault Builder to perform a POC for their new DWH. For this purpose, it has defined 13 typical…
Es werden die Kerncapabilities und Architektur von SAP Datasphere vorgestellt. Dabei wird auch insbesondere auf Real World Beispiele eingegangen.
Voraussetzungen: Grundlegende Konzepte des Data Warehousing und Data Fabric sind bekannt
Schwierigkeitsgrad: All Level
Um Daten im Unternehmen nutzbar zu machen und unter Governance zu bringen, müssen diese beschrieben und katalogisiert sein - und das aus fachlicher Sicht, die übergreifend über die gesamte Systemlandschaft gültig ist. Doch wie fängt man an? ... mit einer Datenlandkarte!
In diesem Workshop modellieren wir live gemeinsam eine Datenlandkarte anhand eines Use Cases, den gerne eine:r der Teilnehmer:innen einbringen darf.
Outline:
Die Sparkassen-Finanzgruppe verfügt über mehrjährige Erfahrungen und Erkenntnisse zur Entwicklung und dem produktiven Betrieb von ML-Algorithmen. Insbesondere die Nutzung von datengetriebenen Banking-Anwendungen im Vertriebsumfeld hilft Sparkassen bei der Kundenzentrierung und Automatisierung. Als Digitalisierungspartner betreibt die Finanz Informatik die entwickelten analytischen Anwendungen in Ihrer Finanzplattform „OSPlus“ und sorgt für eine Skalierung bei über 300 Sparkassen. Einen Einblick…
Data mesh is an outstanding approach to build and manage modern data management solutions, but it is hard to implement practically without using implementation patterns. Certainly, data mesh is fundamentally an organizational approach, but experience has shown that democratization also results in losses in the technical governance of such solutions. In this talk, we will show how implementation patterns can be used to keep the data mesh under control without limiting the flexibility of the…
Die PERI SE hat in den letzten Jahren eine weltweite interne Community im Bereich Reporting etabliert, im Rahmen dessen zahlreiche Self-Service-Datenprodukte (Power BI) parallel zu den Standardreports (Power BI / SAP) entstanden sind. Im Rahmen der Session wird die Gesamtarchitektur vorgestellt, die Rolle des BI-Bereichs als zentrale Kompetenz- und Steuerungseinheit, aber auch das Zusammenspiel mit der internationalen Community und Endanwendern.
Zielpublikum: Entscheider:innen,…
This session looks at how companies can use a data marketplace to share data (and analytical) products in a data mesh and to govern the sharing of data across the enterprise.
Target Audience: Chief Data Officers, Data Governance Directors, Data Engineers, Data Security Officers
Prerequisites: Basic understanding of data governance
Level: Basic
Extended Abstract:
Most firms today want to create a high quality, compliant data foundation to support multiple analytical workloads. A rapidly emerging…
Bei der Entwicklung von IT-Systemen, so auch Data Warehouses und analytische Applikationen, kommt es zu unerwünschten Nebeneffekten. Neben Fehlern gibt es Abweichungen von Architektur-Vorgaben oder Design Patterns, die als technische Schuld (Technical Debt) bezeichnet werden. Im Gegensatz zu Fehlern läuft das System zwar korrekt, jedoch hat es Auswirkungen auf die Weiterentwicklung und den Betrieb (Kosten, Zeit, Incidents etc.).
Typische Gruppen von Technical Debts werden kurz erklärt, was deren…
Diese Session beschäftigt sich mit dem Werkzeugunterstützungsgedanken mittels der Sprache R. Die in diesem Umfeld prominent genannte Sprache ist für statistische Berechnungen und Grafiken geschaffen worden. In der Session werden ausgewählte kleine Beispiele im Werkzeug umgesetzt.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
RStudio DESKTOP www.rstudio.com/products/rstudio/…
With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with the open source software dbt. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald will be explained by DDVUG in a previous lecture.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
For the fictitious company Willibald, a complete data model with data is available that was created by DDVUG and provided with 13 typical…
In diesem Vortrag geht es um das Zusammenspiel von Value und Efficiency im Kontext von Daten und deren Bedeutung für Unternehmen mit begrenzten Ressourcen. Wir werden diskutieren, warum es wichtig ist, effiziente Prozesse zu schaffen, um Raum für Innovationen und Fortschritt zu schaffen, insbesondere im Datenbereich. Dabei werden konkrete Ansätze zur Effizienzsteigerung in den Datenprozessen vorgestellt und erläutert, wie diese dazu beitragen können, die Data Performance trotz…
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/klausdieter.schulze
A COVID19-pandemic and the resulting lockdowns with a global recession, an accelerating climate change and the Russian war in the Ukraine causing a high inflation are only some major challenges why decisions, forecast and predictions are getting more difficult for companies and for government. As a community of experts, it is our obligation to find the right solutions and…
Wer bei Dark Data instinktiv an Darth Vader denkt, liegt nicht verkehrt: Riesige Mengen an „bösen“ Daten lauern unerkannt seit Jahrzehnten in den dunklen Tiefen Ihres Daten-Imperiums – und es werden täglich mehr.
PDFs oder Fotos mit personenbezogenen Informationen, „Individualsoftware“ mit Excel-Makros, vertrauliche Präsentationen mit Provisionserträgen, Videos mit zweifelhaftem Inhalt oder die völlige Intransparenz auf dem Sharepoint-Server – die Liste an Daten-Risiken lässt sich beliebig…
Die Heidelberger Druckmaschinen AG setzt als Markt- und Technologieführer in der Druckbranche ihren Schwerpunkt auf konsequente ›End-to-end‹-Digitalisierung der Kundenwertschöpfung, also vor allem auf integrierte und automatisierte Systemlösungen für Maschinen, Software, Verbrauchsgüter und Services.
Im Rahmen der digitalen Transformation wurde das IOT-Datawarehouse mit dem Ziel der zentralen Verarbeitung von Druckmaschinendaten und Bereitstellung von wichtigen Kennzahlen (KPI) ins Leben…
Mehr als 70% aller Stückgüter werden derzeit weltweit per Container transportiert.
Im Zuge der CO2-Reduzierung ist das Ziel, möglichst viele Container auf der Schiene zu transportieren. Für die letzte Meile übernehmen dann LKWs den Transport.
Die Deutsche Umschlaggesellschaft Schiene-Straße (DUSS) mbH, eine DB-Tochter, betreibt 19 Containerterminals in Deutschland, um die Container auf die verschiedenen Verkehrswege um zu laden.
Für die Abrechnung, die Planung und die Simulation der Arbeiten an…
Why did we change the way we used to work, and what are the challenges and risks today? Which ingredients are key for a data platform that will scale? Mark van der Heijden will cover the past, present and future of data engineering to answer these questions leading to a sustainable data platform.
Diese Session zeigt, wie die Open-Source-Technologien Apache Kafka und Apache Flink gemeinsam genutzt werden können, um Kundentransaktionsdaten anzureichern und ihren Wert zu erschließen. Die Teilnehmer erhalten praktische Umsetzungsstrategien und bewährte Verfahren, um Kafka und Flink optimal zu nutzen und Erkenntnisse aus rohen Transaktionsdaten in Echtzeit zu gewinnen.
Datenlandschaften sind heute zunehmend komplex, hoch fragmentiert und global verteilt. Aus diesen Gründen rücken immer mehr Unternehmen von monolithischen und zentralisierten Datenarchitekturen ab und orientieren sich stattdessen an neuartigen Architektur-Paradigmen wie der Data Fabric oder Data Mesh. Im Vortrag gibt Otto Neuer, Regional Vice President und General Manager bei Denodo, spannende Einblicke in zentrale Fragestellungen:
In dieser Session werden wir uns kurz die Entwicklung von Business Intelligence und Data Analytics im Laufe der Zeit anschauen und dann unsere Aufmerksamkeit auf die Zukunft datengesteuerter Organisationen richten. Raphael Teufel wird über seine Erfahrungen sprechen, die er in Zusammenarbeit mit verschiedenen Organisationen machen konnte. Ausgehend von diesen Perspektiven betrachten wir die notwendigen Komponenten für die Umsetzung einer erfolgreichen Datenstrategie in Unternehmen jeder…
Als Marktführer im Bereich Cloud-Datenmanagement versteht Informatica die Bedeutung von Machine Learning (ML) in modernen Datenworkflows. Um jedoch das volle Potenzial von ML auszuschöpfen, müssen Organisationen auch MLops akzeptieren - die Praxis, DevOps-Prinzipien auf Machine-Learning-Projekte anzuwenden.
In diesem informativen Vortrag tauchen wir in die Welt von MLops ein und erkunden bewährte Methoden, um ML nahtlos in Ihre Datenmanagementstrategie zu integrieren. Von der Datenerfassung und…
Federated Learning ist eine innovative KI-Technologie mit großem Potenzial für sensible Branchen, wie Banken- und Versicherungen. In diesem Vortrag geben wir einen Überblick über Anwendungsfälle und Vorteile der Technologie, einschließlich Performance, Datenschutz und Effizienzgewinne durch Dezentralität. Außerdem demonstrieren wir die technische Funktionsweise, inklusive Referenzarchitektur und zeigen Anwendungsbeispiele um zu demonstrieren, wie mittels Federated Learning innovative KI…
At SWICA we started our movement towards data mesh 2021. At TDWI 2022 we presented our latest platform which basically consists of resources and patterns to hold and manage decentralized compute and storage services for our data. For this year’s session we are prepared to show working platform services like discovery, publishing and compliance. Our user interfaces and recap best practices during the implementation phasis.
Target Audience: Platform Engineers, Data Engineers, Data Analysts,…
Die Zement- und Betonproduktion ist für knapp 10 % der globalen CO2 -Emissionen verantwortlich und stellt damit einen gewaltigen Hebel bei der Erreichung wichtiger Klimaziele dar. Die Suche nach klimafreundlicheren Alternativen erfolgt heute aber größtenteils aufwendig manuell auf Basis von Erfahrungswerten. Wir zeigen das enorme Potenzial KI-gestützter Priorisierung auf, insbesondere des sequenziellen Lernens, und stellen eine Applikation vor, die eine Feedback-Schleife zwischen Vorhersage und…
Scrum-Teams sammeln in ihren Jira-Projekten einen immensen Datenschatz. Wir zeigen, wie diese Daten mithilfe von Data Science-Methoden im gesamten Scrum-Prozess vom Planning bis zur Retrospektive eingebracht werden können. Geplante vs. umgesetzte Velocity, Kopfmonopole und Chaos im Backlog werden besprochen.
Ziel ist es, dem Scrum-Team Methoden in die Hand zu geben, um offene Entscheidungen datenbasiert zu treffen. Dafür lernt es, eigenverantwortlich die notwendigen Daten mithilfe eines…
Ohne Zweifel sind Daten einer der Kernbestandteile der Digitalisierung. Leider scheitern Digitalisierungs- und Datenprojekte häufig an fehlenden, heterogenen oder fehlerhaften Daten. Den notwendigen Datenqualitätsgrad zu erreichen, ist jedoch alles andere als einfach, da es Menschen, Prozesse und Technologie im Einklang erfordert. In dieser Präsentation gibt DB Regio Bus einen Einblick in ihre Erfolgsstory, wie die Organisation den Level der Datenqualität für geschäftskritische Daten deutlich…
Kontrovers, provokativ und konstruktiv – wir diskutieren mit Ihnen das Thema Next Generation Data Management.
Diese Session fokussiert die Programmiersprache Python anhand vorgefertigter Code-Beispiele, um den Teilnehmern eine Grundlage zu schaffen, die Einsatzpotenziale und Aufwände der Sprache im Bereich Advanced Analytics besser abschätzen zu können.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
Anaconda www.anaconda.com/products/individual, um Python nutzen zu können.
Zielpublikum:…
With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with VaultSpeed. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald will be explained by DDVUG in a previous lecture.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
For the fictitious company Willibald, a complete data model with data is available that was created by DDVUG and provided with 13 typical challenges. In this…
Auf dem Weg zur Data Driven Company ist es wesentlich messbare Mehrwerte aus Daten zu generieren.
Damit die Identifikation der dafür notwendigen Use Cases nicht nur eine einmalige Aktion im Rahmen eines Projekts wird, sollte die Kontinuität über eine organisatorische Verankerung in Form einer Data Value Factory erfolgen.
Im Vortrag stellen wir Ihnen vor welche Ansätze hierzu existieren und welche Herausforderungen überwunden werden müssen.
Wieso kann man nicht einfach die physischen Datenmodelle als Unternehmensdatenmodell verwenden? Wie unterscheidet sich ein Fachdatenmodell von einem Datenbankmodell? Welches Vorgehen ist notwendig, um für ein unternehmensweites Gesamtverständnis aller Unternehmensdaten zu sorgen? Und wieso kann nur das Fachdatenmodell die Grundlage für Data Governance sein?
Diese und weitere Fragen werden in diesem Workshop beantwortet und anhand eines spontanen Teilnehmer:innen-Use Cases live gemeinsam…
BI or DIE Women in Data meets TDWI. Diesmal wird das von LinkedIn und YouTube bekannte Format Women in Data live auf der TDWI vertreten sein. Im gewohnten Impuls- und Diskussionsformat wird breit gefächertes Wissen rund um Data Themen vermittelt. In diesem besonderen Format sind die Impulsgeberinnen ausschließlich weiblich. Im Publikum sind Männer wie Frauen herzlich willkommen.
Sabine Schwenninger von BI or DIE führt durch den Tag und übernimmt die Moderation. Für alle die nicht live in…
Data Governance bezeichnet das Framework, was Unternehmen implementieren, um die Nutzung von Daten möglich zu machen. Aber ist das wirklich nötig oder nur eine Entschuldigung, ein weiteres Tool anzuschaffen? Der Impulsvortrag leitet das Thema ein und die Diskussion liefert die Antwort: Kann es nur eine geben?
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Individuelle Datenverarbeitung (IDV) wird in Unternehmen vor allem dann eingesetzt, wenn klassische IT-Systeme zu komplex, teuer oder zeitaufwendig sind oder der Arbeitsaufwand für die IT-Abteilung zu hoch ist. In diesem Vortrag möchte ich Ihnen praxisnahe Tipps und Best Practices vorstellen, um Ihnen zu helfen, das Thema IDV zu beherrschen. Sie werden lernen, wie Sie individuelle Datenverarbeitung erfolgreich in Ihr Unternehmen integrieren und wie Sie die Sicherheit Ihrer Daten gewährleisten…
Datenanalyse ist essenzieller Teil vieler Zentralbankaufgaben, sei es in der Analyse von Kreditportfolien im Rahmen der Bankenaufsicht oder in der Betrachtung wirtschaftlicher Zusammenhänge zur Steuerung der Geldpolitik.
In den vergangenen Jahren sind die Anforderungen in diesem Bereich stark gestiegen. Aus diesem Grund wurde die Plattform IDA auf Basis modernen Hadoop-Architektur und großzügiger Hardware-Ausstattung geschaffen. Wir präsentieren unsere Erfahrungen aus dem Aufbau der Plattform…
Der Duisburger Hafen - als weltgrößter Binnenhafen auf dem Weg zur Data-Driven-Company. Durch eine unternehmensweite Daten- und Analyseorientierung soll die Entscheidungsfindung zukünftig stärker datengetrieben stattfinden. Der Aufbau einer modernen BI-Plattform in der Cloud soll dazu beitragen, sich zukunftssicher aufzustellen. Er bietet neben einer höheren Flexibilität, Funktionalität und Skalierbarkeit den Vorteil, möglichst viele Anwender in die datengesteuerte Zusammenarbeit und die…
Die Data Mesh Konzeption ist in aller Munde. Sie verspricht durch eine dezentrale Verantwortung über fachliche Datendomänen und ihre jeweiligen Datenprodukte eine bessere Skalierung. Data Mesh steht damit diametral zu vielen eher zentralistisch geprägten Organisationsstrukturen und damit häufig verbundenen Architekturkonzeptionen für analytische Systeme, die in der Vergangenheit propagiert wurden. Eine föderale Data Governance soll in der Data Mesh Konzeption für Harmonisierung und…
Daten sind das neue Gold” ist schon seit längerem ein Schlagwort oder eine eingängige Phrase. Und obwohl dies sicherlich stimmt, ist es wesentlich schwieriger, das Potenzial von Daten zu nutzen als das von Gold. Unternehmen sitzen auf Bergen von Daten, die sie oft kaum für ihre eigenen Zwecke nutzen, und schon gar nicht mit anderen Unternehmen teilen, um einen zusätzlichen Nutzen zu erzeugen. Die Gründe hierfür sind vielfältig und oftmals organisatorisch, rechtlich, technischer Natur.
In diesem…
Diese Session vermittelt die Unterschiede zwischen Data Mining und Text Mining, so dass auch hier die Teilnehmer in der Lage sind, diese zu erkennen und in eigenen Projekten zu berücksichtigen. Während der Session zeigen wir ein kleines Code-Beispiel, so dass der Eindruck für den Aufwand vermittelt wird.
Maximale Teilnehmerzahl: 20
Bitte installieren Sie vorab für die Session das nachstehende Open-Source-Werkzeug, so dass wir direkt mit den Inhalten starten können:
Rapidminer rapidminer.com…
With the data of the fictitious company Willibald and its 13 challenges, a DWH is created with WhereScape Data Vault Express. An ideal opportunity to see and evaluate the tool in realistic use. The data of the company Willibald will be explained by DDVUG in a previous lecture.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
Extended Abstract:
For the fictitious company Willibald, a complete data model with data is available that was created by DDVUG and provided with 13 typical…
Voraussetzungen: Awareness of what integration is. But not a must.
Schwierigkeitsgrad: Beginner/Entry-Level
Der Impulsvortrag geht am Beispiel von congstar und Pyramid Analytics darauf ein, wie Dashboard Standards den Weg zur Data Driven Company ebnen können. In der anschließenden Diskussion werden wir das Thema weiter vertiefen.
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Daten können sich positiv auf alle Versicherungsprozesse auswirken - vom Underwriting, der Preisgestaltung, der Risikoprüfung und der Rückversicherung bis hin zur Kuratierung persönlicher Empfehlungen und anderen strategischen Marketingentscheidungen. Bislang wird von diesen Möglichkeiten aber nur begrenzt Gebrauch gemacht. Wir zeigen Möglichkeiten und Grenzen des Einsatzes von (externen) Daten im Versicherungsbereich sowie konkrete Use Cases aus verschiedenen Versicherungssparten.
Externe Daten…
Data Mesh erobert die Datenwelt im Sturm, obwohl das wegweisende Architekturkonzept in der Reinform für die meisten IT-Abteilungen noch nicht praktikabel ist. In verschiedenen Ausbaustufen der Dezentralisierung kann der Ansatz aber auch heute schon zu einer deutlich effizienteren Datennutzung in Unternehmen beitragen.
Jens Kröhnert stellt Ihnen anhand von Praxisbeispielen die wichtigsten Entscheidungskriterien für unterschiedliche Data Mesh-Ausprägungen vor. Ausgangspunkt bilden dabei Full-,…
The theory of a data flywheel in consumer IoT devices is simple. However, implementation is challenging and realising sustainable value from it is even harder. This talk will outline our journey with IoT appliances at Miele, and how we are combining the power of IoT and AI to drive continuous improvement and shape the next generation of appliances.
Target Audience: Product Owners, Decision Makers, AI & Data Leaders/Strategists, Data Scientists
Prerequisites: None - I will break it down to…
Anbindung von mehr als 30 Fabriken weltweit mittels Self-Service Tools unter Beachtung von ISO-Standards zur Konsolidierung und Analyse der Daten. Reduzierung der Implementierungszeit von durchschnittlich mehr als 6 Monaten auf weniger als 2 Wochen pro Fabrik.
Zielpublikum: Projektmanager:innen, Data Engineer, Business User
Voraussetzungen: keine, Grundverständnis von Datenverarbeitung nicht von Nachteil
Schwierigkeitsgrad: Einsteiger
Das Bundesministerium für Finanzen (BMF) leistet alle operativen Prozesse der Finanzverwaltung und hat daher umfassende Daten über alle Geschäftsfälle. Die Data Governance Plattform Austria schafft nun die Basis für ein fachliches Verständnis dieser Daten für alle Datennutzer:innen, das durch Data Stewards bereitgestellt wird. Gleichzeitig bildet sie die Grundlage für die technische Implementierung im zentralen DWH bis hin zur DWH Automation. Nur durch konsequente Awarenessbildung war dieses…
A traditional Swiss railway company that operates train connections throughout the alps. Swisscom implemented a modern analytics platform based on Microsoft Azure to integrate vast amounts from technical and commercial sources. Among other use cases, the customer can now predict the arrival times of their trains in near-real time. The platform is based on a loosely-coupled architecture consisting solely of native PaaS services and leverages modern IaC capabilities to fully automate the…
Being well informed about tools and their capabilities is one thing, but what can I expect when I embark on data warehouse automation?
We have three experts with very different experiences and three completely different approaches who will talk about implementation, reasoning, development speed, costs/benefits, metadata and lessons learned in this panel discussion.
Der Anspruch der Unternehmen an die Datenanalyse steigt stetig. Das benötigt einerseits immer mehr und aktuellere Daten, andererseits aber auch eine hohe Fach- bzw. Branchen-Kenntnis. Daher muss eine moderne Datenarchitektur den fachlich orientierten Datenanalysten einen einfachen und agilen Umgang mit Daten ermöglichen. Wie aber kann das gelöst werden, wo doch die IT-Systeme immer komplexer und heterogener werden? Jan Ulrich Maue, Senior Sales Engineer bei Denodo, zeigt am Praxisbeispiel…
Wir beschäftigen uns mit häufigen Fehlern, die bei der Arbeit mit Daten passieren können. In dem Vortrag werden fünf grobe Datenpannen vorgestellt und erläutert, wie man diese vermeiden kann. Dabei geht es nicht nur um technische Fehler, sondern um Fehler in der Datenanalyse und der Interpretation von Daten. Der Vortrag richtet sich an alle, die mit Daten arbeiten, sei es im beruflichen oder privaten Kontext, und soll dazu beitragen, dass man Daten korrekt und effektiv nutzen kann, ohne dabei…
ESG-Risiken (Environment, Governance, Social) rücken in den Fokus der Bankenregulatorik. Welche Bank weiß heute, welche Kreditobjekte in einer wettergefährdeten Region liegen? Wie viel CO2 stoßen die finanzierten Fahrzeuge aus? Es gilt, neue externe Datenquellen teils unbekannter Qualität anzubinden, unstrukturierte Daten aufzubereiten und zu analysieren. Ohne KI und Natural Language Processing kaum leistbar. Wie kann eine proaktive Strategie der Banken-IT aussehen? Wo sind Hürden? Welche Best…
For large organizations, the challenges of enterprise-level data management are manifold. Leftovers of various integration / decentralization exercises and sourcing initiatives, system components of all kinds (DHWs, ODSs, data lakes and mixed forms), a complex mesh of central and decentral governance and ownership. Data Mesh and Data Platform promise to solve problems of complexity, heterogeneity, and efficiency. Supported by the Data Management & Analytics Community (DMAC), we studied status…
Im Gegensatz zu anderen Sportarten werden im Basketball bereits seit Jahren einfache statistische Analysen genutzt. Die Weiterentwicklung dieser Analysen soll helfen, Spiel-, Spieler- und Team-Koordination entscheidend zu verbessern. Nur wenn das Team als Ganzes funktioniert und ein Plan zur Vorbereitung auf den nächsten Gegner ausgearbeitet ist, kann eine Performance erreicht werden, die auf nationaler und internationaler Ebene ausreichend für die Ansprüche eines europäischen Spitzenteams ist.
…
Auf den Punkt kommen - das ist es, wofür Dashboards da sind!
Genauso wie ein guter Witz sollte ein Dashboard nicht erklärt werden müssen, sondern schnell zu verstehen sein.
Genau das testen wir live im Dashboard Karaoke:
Sind Personen, die ein Dashboard zum ersten Mal sehen, in der Lage, die Kernaussagen und Informationen schnell zu erfassen? Oder können sie es nicht und das Dashboard ist einfach schlecht?
Live & Unplugged im Self-Service-Track @TDWI München
Bürkert konzentriert sich auf Lösungen für das Messen, Steuern und Regeln von Gasen und Flüssigkeiten. Seinen 3000 Mitarbeiter steht eine umfangreiche BI- und Analytics-Umgebung zur Verfügung (operative Analytics, BI Stack, Self-Service Analytics, Process Mining, Advanced Analytics). Der Vortrag beschreibt, wie die Umgebung strukturiert ist, welche Technologien warum angewandt werden und wie die Umgebung von einem 5-köpfigen Team betreut und weiterentwickelt wird.
Zielpublikum: BI- &…
Die Überwachung einer Fertigungsanlage und Erhebung kritischer Kennwerte mithilfe von Sensoren ist der Klassiker der IoT. Doch wie startet man ein solches Projekt? Welche Komponenten benötigt man und wo kann bzw. soll die Reise hingehen?
Ein Erfahrungsbericht vom Aufbau einer Datenpipeline 'from scratch'. Vom Aufsetzen einer ersten einfachen Datenbank bis zur Echtzeitstreaming-Plattform. Von der Synchronisierung verschiedener Sensoren bis zur Datentransformation als Basis zur KI-Überwachung und…
Es darf diskutiert werden.
Bring Dein Wissen mit. Bring Deine Themen mit. Bring Deine Fragen mit. Alles kann, nichts muss. Halt! Eins muss. Du musst Bock haben auf Austausch, Interaktion und Wissenstransfer.
Auf der TDWI München 2023 präsentieren wir ein Barcamp exklusiv zum Themenkomplex Data Science. Als Vorgeschmack auf unsere Konferenz c/o data science am 09. November 2023.
Jedes Barcamp ist so unterschiedlich wie seine Besucher. Denn ein Barcamp lebt von Deiner Beteiligung. Du gestaltest…
The results of the DWH Automation Challenge are made available in a web-portal. The data and the data model for Willibald are made freely available.
A good reason to celebrate!
A pleasant way to end a long day on DWH automation and an exchange of ideas in a relaxed atmosphere.
Prerequisites: Basic Data Warehouse Knowledge
Level: Basic
In his talk Paul Dietrich shares proven best practices from Collibra customers and ways to support those 66 % of companies that still struggle with turning data into actionable insights.
Digitalisierung heißt: Daten. Zukünftige Herausforderungen in Organisationen sind immer mehr von Daten bestimmt, sind komplex und machen nicht mehr an Abteilungsgrenzen Halt. Wie kann Data Literacy allen Mitarbeitenden den nötigen Perspektivenwechsel ermöglichen, damit Daten im Bewusstsein aller vom „Nebenprodukt“ zum „Asset“ werden?
Voraussetzungen: keine
Schwierigkeitsgrad: Einsteiger
Die unbequeme Wahrheit ist: Data Literacy ist Disruption. Gemeinsam durchleben wir in diesem Vortrag anhand von Geschichten aus der Praxis die disruptive Qualität von gescheiterten Ansätzen, in denen Zukunft und Vergangenheit aneinander prallen.
Sie nehmen eine Liste von Fehlern anderer mit, aber auch die Gewissheit, dass Sie einer kulturellen und organisatorischen Disruption gegenüber stehen. Wie stark Sie diese trifft, finden wir in dem Vortrag raus.
Zielpublikum: CDOs,…
Der Aufbau eines Data Warehouse ist erfahrungsgemäß sehr aufwendig und langwierig. Gerade in Zeiten von Fachkräftemangel stellt es v. a. mittelständische Unternehmen vor die Herausforderung: Ausbau datengetriebener Entscheidungen, Automatisierung von Prozessen, Integration von IoT-Systemen. Die Goldhofer Aktiengesellschaft hat deshalb den Schritt zu Data Warehouse Automation mit dem Datavault Builder gewagt und innerhalb eines Jahres ein neues DWH aufgebaut.
Zielpublikum: Manager:innen, BI- und…
BI-Plattformen in der Cloud ermöglichen es Unternehmen, große Datenmengen schnell und effizient zu analysieren. Insbesondere in Public Clouds stehen diesen Vorteilen meist Datenschutzbedenken gegenüber. Dieser Vortrag zeigt, wie Datenschutzanforderungen erfüllt werden können, ohne dabei große Kompromisse eingehen zu müssen. Anhand eines Use Cases wird aufgezeigt, wie ein klassisches DWH an eine moderne BI-Plattform in der Cloud angebunden werden kann, ohne dabei Daten im Klartext außerhalb des…
Auf dem Gesamtweg in die Cloud hat Hapag-Lloyd seine analytischen Fähigkeiten gestärkt, indem es eine zentrale Datenspeicherung ('Data LAKE') eingeführt hat und so Herausforderungen im Zusammenhang mit On-Premise-Lösungen überwunden und weitere Anwendungsfälle und Analysen ermöglicht hat. Die Präsentation wird auf die gemeisterten Herausforderungen und die direkten Vorteile aus dem Übergang in die Cloud eingehen.
Zielpublikum: Entscheider:innen, Product Specialists, Data Analysts, Data…
Daten & Analytics sind Entscheidungs-Unterstützung. Entscheidungen werden durch Daten besser, rationaler, vorausschauender. So die Theorie. In der Praxis scheitert das leider oft an der Übersetzung zwischen Datenprofis wie BI, Data Scientists und Analysts einerseits und Entscheidern, Stakeholdern und Kunden andererseits. Wertvolle Erkenntnisse verpuffen ungehört, Dashboards fristen ein Schattendasein und Daten entfalten keinen Impact. Was Datenprofis selbst in die Hand nehmen können, um das zu…
ChatGPT erschien am 30. November 2022. Seitdem hält der Chatbot die Welt in Atem. Er kann Dinge, die Apologeten wahlweise prophezeiten, befürchteten oder ersehnten. Viele glauben an einen 'iPhone-Moment' in der KI-Geschichte. Was genau ist ChatGPT? Warum ist es ein 'Allzweckwerkzeug' für Wissensarbeit? Ausgehend von den Grundlagen der Wissensarbeit ergründet der Vortrag den Hype um ChatGPT. Und zeigt anschaulich, wie Wissensarbeiter der Konkurrenz durch ChatGPT begegnen können.
Zielpublikum: jed…
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/raphael.branger
Agile ist doch gleichbedeutend mit Chaos und Planlosigkeit - wie soll mir das bitte bei meinem Business Intelligence-Vorhaben weiterhelfen?' Es ist ein gängiger Irrglaube, dass Agile gleich-bedeutend ist mit schlechter oder keiner Planung. Wir laden dich deshalb ein zu einem interaktiven Stadtrundgang durch 'Agile BI City': Du erfährst, was du für dein agil durchgeführtes…
In den letzten Jahren wurden digitale Plattformen zunehmend zum Gegenstand intensiver Diskussionen in Forschung und Praxis. Schließlich existieren genug Beispiele darüber wie digitale Plattformen in der Lage sind, ganze Märkte umzustrukturieren, indem sie Netzwerkeffekte nutzen, um schnell zu skalieren und verschiedene Akteure miteinander zu verbinden. Doch in den Anwendungsdomänen mit sensitiven Daten kommt das viel erforschte Konzept digitaler Plattformen an seine Grenzen. Während die…
Tobias presents DANONE´s data strategy for 2025 and the lessons learned from a use case realization. Promises and expectations were high and are still very ambitious. Tobias will share lessons learned and best practices.
Target Audience: People who would to understand what happens on a data journey starting with a data strategy until handing over data products to business people.
Prerequisites: Curiosity
Level: Basic
Die Novellierung des IT-Sicherheitsgesetzes umfasst neue Wirtschaftszweige, die zukünftig die hohen KRITIS-Sicherheitsanforderungen erfüllen müssen. Um späteren Mehraufwand zu vermeiden, sollte Sicherheit daher von Anfang an mitbedacht werden (Secure by Design). Auch cloud-native Data Warehouses, Data Fabrics und Data Meshes müssen auf verschiedenen Ebenen abgesichert und Kommunikation muss verschlüsselt werden. infologistix zeigt einen Verschlüsselungsansatz einer Data Platform, der die…
Um komplexe Metriken live bei Änderungen von Daten in einem Planungstool für den Anlagenbau anzeigen zu können, wurde eine 3-schichtige Architektur mit Datenbanktriggern entwickelt. Diese löst bestehende langsame Views ab, die zu langen Ladezeiten der UI führten. Eine Trennung von Datenselektion, Businesslogik und Schreibzugriff sorgt für strukturierten Code. Ebenso sorgt die exakte Selektion der Daten, die aktualisiert werden müssen, für effiziente Trigger. Probleme bei der Wartung werden über…
SQL ist nicht wegzudenken aus der Datenanalyse. In der Realität findet man dann häufig das Pattern: Python Glue Code in Notebooks, der SQL Statements ausführt. dbt (data build tool) hilft dabei, SQL-Datenpipelines strukturiert aufzubauen, inkl. Validierung der Daten, Dokumentation & Abhängigkeitsgraphen. Die Automatisierung von Datenaufbereitungen und Analysen gelingt so ganz einfach.
Zielpublikum: Data Engineer, Data Architect
Voraussetzungen: Grundlagen SQL/Python sind hilfereich
Schwierigkeit…
Jedes Unternehmen möchte verstehen, wo es Potenzial hat, Verbesserungen anzubringen. Doch ohne Überblick darüber, welches Ereignis welche Auswirkungen hat, ist das schwer zu erkennen. In dieser interaktiven Session wird über Treiber-Bäume gesprochen - eines der ältesten Analyse-Tools. Wir besprechen die Vorteile und Herausforderungen bei der Implementierung und sehen, wie sie Entscheidungsprozesse unterstützen können. Denn dank des visuellen Charakters helfen Treiber-Bäume, Geschäfte und…
Chancen und Risiken generativer KI
Wir wollen die Potentiale generativer KI von zwei Seiten betrachten:
Was sind die Vorteile – wie kann mit generativer KI die (Arbeits-) Welt zum Positiven verändert werden? Wie kann die Menschheit von generativer KI profitieren?
Welches sind die Risiken, mit denen wir rechnen müssen? Wir können wir diesen begegnen? Sind wir ausreichend auf das vorbereitet, das da kommt?
Deep learning methods archive stunning performances in many disciplines like computer vision or natural language processing. For factory automation, deep learning is applied to detect anomalies and monitor the machine condition to increase productivity. In practice, we need to overcome multiple challenges: low quality datasets, missing domain knowledge and lack of performance metrics standards. In this session, we explain the usage of open source frameworks and configurable deep learning tools…
In diesem Hands-on Workshop lernen Sie anhand eines konkreten Use Cases die praktische Anwendung der Datenvirtualisierung kennen. Hierbei wird von Anfang an “hands on” vorgegangen, d.h. es handelt sich nicht um einen reinen Vortrag, sondern ein praktisches Erleben der Lösung. Konkret werden folgende Themen behandelt:
Im Rahmen der Migration eines Data Warehouse und der darauf aufbauenden Produkte in eine Cloud-Umgebung haben wir Erfahrungen gemacht, die in diesem Vortrag geteilt werden sollen. Anhand von thematisch gegliederten, kurzen Beispielen aus Bereichen wie technischer Architektur, Entwicklung sowie Projekt- und Produktmanagement zeigen wir unsere Erfolge und Misserfolge auf und formulieren Thesen für eine erfolgreiche Projektkultur, die für fruchtbare Diskussionen sorgen sollen.
Zielpublikum:…
Wir geben einen Überblick über den Modern Data Stack bei SENEC. SENEC ist der größte Solarstromspeicheranbieter in Deutschland mit einer starken Wachstumsstory. Innerhalb dieses Umfelds kam die Idee, einen Modern Data Stack als Single Point of Truth für sämtliche Datenprodukte aufzusetzen. Von der Idee bis zum PoC war und ist es ein sehr spannender Weg, auf den wir euch gerne mitnehmen wollen. Wir geben euch einen Überblick über die Architektur und zeigen euch aus verschiedenen Perspektiven…
This presentation will examine the creation of data products through ETL pipelines and the value they provide through insights. We'll focus on the advantages of test-driven development in ETL and how Azure DevOps and Databricks play key roles in the pipeline. We'll also cover the implementation of a Git-based CICD workflow to automate and guarantee the quality of the generated data products. By the end of the presentation, attendees will have a solid understanding of the benefits of test-driven…
Das Fashion-Retail Unternehmen C&A führt aktuell eine SAP Retail-Landschaft ein. Der Aufbau eines Greenfield Data Warehouse als Basis für Analytics, BI und Reporting ist dabei grundlegender Bestandteil. Anders als in traditionellen SAP-Umgebungen hat sich C&A für die Einführung einer best-of-breed DWH-Architektur auf Grundlage von Data Vault, Data Warehouse Automation und einer Data Lakehouse-Architektur entschieden, die erst auf Basis einer Cloud-basierten DWH-Plattform eines…
Digital Reporting und Predictions haben wir schon im Einsatz - Digital Planning ist der konsequente nächste Schritt in Richtung Finanzorganisation der Zukunft.
Optimiertes Forecasting, Planung und Rolling Projection über eine moderne, flexible, cloudbasierte, integrierte Planungsplattform. Zusammenarbeit auf dem nächsten Level, keine aufwendigen Konsolidierungsschritte mehr und direkte Analysemöglichkeit! Der Privatkundenbereich startete 2022 als Pilot und 2023 kommen alle anderen Segmente mit…
In den letzten Jahren haben sich die den ERP-Systemen zugrunde liegenden Systemlandschaften technologisch grundlegend verändert und In-Memory-basierte Architekturen haben bereits Einzug in die gesamte On-Premise-Landschaft bis hin zur Cloud gehalten. Standardisierte Datenbanktechnologien ermöglichen zunehmend systemunabhängige Zugriffe mit kurzen Latenzzeiten und analytische Funktionalitäten sind nicht mehr ausschließlich dedizierten DWH-Lösungen vorbehalten. Dies birgt viele Chancen, wirft aber…
Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/torsten.priebe
Metadaten- und Datenqualitätsmanagement sind wichtige Bestandteile jeder Datenarchitektur. Das Werkzeugangebot ist vielfältig und dynamisch, der Markt ist neben umfangreichen Datenmanagementlösungen von 'disruptiven' Innovatoren geprägt. Wir ordnen die betrachteten Teilbereiche der Data Governance ein, vergleichen aktuelle Werkzeuge und identifizieren Entwicklungen und Trends.…
Starting off from a recent fine from the Berlin Beauftragte für Datenschutz und Informationsfreiheit (BlnBDI) around obligations for automated decision making (art. 22 of the GDPR), this presentation will walk the audience through how teams collaborate around compliance obligations.
Risk with respect to processing of personal data continues to increase since the ink dried on the GDPR in 2016. Enforcement as of 2018 has signaled a need for companies to act responsibly with their data processing…
"The development of the data governance journey at Helaba will be presented using selected use cases. Which deficits hurt the most, how do you find the right tools, and what is the right tool in the right place? And as is appropriate for a journey - sometimes there are also dead ends, detours, and shortcuts.
Extended Abstract
In an era where data is invaluable, an adept Data Governance strategy is essential for organizations. Helaba, a leading financial institution, recognized the necessity of…
Siemens schafft mit Data Mesh ein innovatives Analytics-Ökosystem. Diverse Fachbereiche mit individuellen Verantwortlichkeiten arbeiten innerhalb eines Ökosystems zusammen, um Siemens zu einem data-driven Unternehmen zu transformieren. Eine große Herausforderung besteht darin, die Konsistenz zwischen den verschiedenen Bereichen zu gewährleisten. Data Vault spielt eine entscheidende Rolle bei der Bewältigung dieser Herausforderung.
Simplifying the modern data stack by choosing a unified platform like SnapLogic can help to eliminate the need to purchase countless point-to-point solutions. Instead, data leaders are able to simply automate end-to-end processes, enable their teams faster, and manage their data more easily from one centralized solution.
Prerequisites: Awareness of what data integration is
Level: middle
In his talk, Michael showcases how Collibra Data Quality & Observability helps to improve the quality of data by learning through observation rather than human input. Collibra DQ applies the latest advancements in data science and machine learning to the problem of data quality, surfacing data issues much faster than traditional, manual approaches.
Habt Ihr diese Erfahrungen auch gemacht?
The Good: Wir starten mit ambitionierten Vorsätzen, um ein bestehendes Analytics System auf ein neues Level zu heben. Modernisierung heißt hier das Zauberwort.
The Bad: Dumm nur, wenn unsere Ambitionen und Vorsätze durch die Realität auf eine harte Probe gestellt werden.
The Ugly: Wir zeigen anhand von mehreren Beispielen auf, was in unseren Modernisierungsvorhaben nicht auf Anhieb funktioniert hat. Und warum wir überzeugt sind, dass eine Modernisierung…
Der Vortrag zeigt den Weg, wie das BI Competence Center der Volkswagen Marke Nutzfahrzeuge es geschafft hat, in kurzer Zeit eine On Premises DWH-Plattform für die die gesamte Volkswagen Gruppe auf modernste Cloudtechnologie zu migrieren und zu skalieren. Hierbei wird speziell auf Herausforderungen der Skalierbarkeit klassischer BI-Architekturen und die Grenzen der Nutzung von Automation im Kontext von Cloudservices eingegangen. Der Bericht stammt aus der aktuellen Praxis und macht klar wie…
Die DEVK setzt seit 2019 das Bestandssystem IPM für das Sachgeschäft ein. Für das notwendige Reporting und Analysen haben wir uns für eine quellsystemnahe Auswertungslösung entschieden. Diese nutzt die Besonderheit des IPM-Datenmodells, keine Datensätze zu verändern oder zu löschen sowie die zentrale Historisierung des Systems. Der Vortrag berichtet von unserem Vorgehen zur Ermittlung von Delta-Zeitscheiben für die Bewirtschaftung, der zweizeitigen Zeitraumhistorisierung und den zusätzlichen…
In all data architectures, be it a data mesh, data fabric, data warehouse, or data lakehouse architecture, metadata is indispensable. This is especially true for business users who develop their own dashboards and reports and create data science models. To offer frictionless access to metadata, it is important that, when designing a data architecture, time is reserved for designing a full-fledged metadata architecture. Metadata should not be an afterthought or treated like a neglected stepchild.…
Agile Methoden sind in der modernen Softwareentwicklung nicht mehr wegzudenken.
Aber eignen sie sich auch für BI-Projekte? Für ein mehrjähriges BI-Migrationsprojekt hat die Bilfinger SE genau das mit dem Framework Scrum ausprobiert - mit Erfolg. Dabei hat sich herausgestellt, dass nicht jede Vorgabe umsetzbar ist, manches wurde angepasst und auf manches verzichtet. Das Praxisbeispiel bei der Bilfinger SE zeigt, wie am Ende die Methode dem Projekt dient und nicht umgekehrt.
Zielpublikum: Projektl…
Wir zeigen Ende-zu-Ende die komplette Umsetzung eines IoT Use Case: Von der Anbindung des Sensors über die Sammlung der Daten bis hin zur Visualisierung in near-realtime Dashboards. Weiterhin werden Alarmregeln definiert, um proaktiv auf Störungen reagieren zu können.
Dieses Szenario wird ganz praktisch vor Ort aufgebaut und kann von den Teilnehmern selbst ausprobiert werden. Teilnehmer lernen Best-Practice-Vorgehensweisen und bekommen Tipps, wie sie Stolpersteine umgehen.
Wir zeigen dieses…
In der Finanzplanung haben sich in den letzten Jahren vielerlei technologische Innovationen wiedergefunden, die in anderen Bereichen schon länger genutzt wurden. Darunter fällt auch der Ansatz des Predictive Planning.
Beim Predictive Planning soll der Planer durch Vorhersagealgorithmen unterstützt werden, mit denen er seine Vorhersagen beginnen, verfeinern oder validieren kann. In dieser Hands-On Session soll dieses Konzept dem Teilnehmer theoretisch und praktisch näher gebracht werden.
Maximale…
Large Language Models wird das Potential zugesprochen, geradezu revolutionäre Umwälzungen in Unternehmen und Gesellschaft zu ermöglichen. Nach einer kurzen Einführung in die Thematik stellt der Vortrag aktuell realisierbare Anwendungen vor, um dann anhand realer Projekterfahrungen die Potentiale, aber auch die Voraussetzungen und Grenzen des Einsatzes der Technologie auszuloten.
Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen Brain Computer Interfaces auseinandergesetzt und versucht, eine solche Software zu entwickeln. Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -typen sowie deren unterschiedliche Ansätze zur Erfassung von Gehirnströmen. Das Team hat sich dabei der Herausforderung gestellt, Techniken…
In einer quantitativen Umfrage hat Adastra festgestellt, dass viele Unternehmen ihre Nachhaltigkeitspotenziale noch nicht voll ausschöpfen. Neue Gesetze erhöhen den Druck. Unternehmen sollten sich jedoch nicht nur daran halten, weil sie müssen - sondern die Gelegenheit nutzen, um innovativ und wertschöpfend zu sein.
Die Herausforderung dabei: auf relevante Daten zuzugreifen und sie auszuwerten. In diesem Vortrag sprechen wir darüber, wie Sie moderne Datenarchitekturen nutzen können, um Ihre…
Will man Daten unter Berücksichtigung einer zweizeitigen Historisierung mit Von- und Bis- Zeiträumen ablegen, kann man dies durch Hinzufügen der Historien-Felder an die Nutzdaten oder durch Auslagerung der Historieninformationen in einer separaten Tabelle erreichen. Der Vortrag gibt eine Einführung in die Grundlagen der bi-temporalen Historisierung und beleuchtet die Vor- und Nachteile beider Verfahren unter Berücksichtigung der Abfrageperformance unter Oracle.
Zielpublikum: Data Engineer, Data…
Wissen Sie, wie viele der Reports in Ihrer Unternehmung nicht genutzt werden? Wissen Sie, warum? Auch wenn ein Report auf eine Fachanforderung hin entstanden ist, bedeutet dies nicht, dass dieser auch tatsächlich genutzt wird. Storytelling als BI-Methode kann dabei helfen, die Anforderungen der Stakeholder besser zu verstehen. Umgekehrt schafft Storytelling einen Bezug zu den Daten und zeigt den Kern der Information auf. Kommen Sie vorbei und lassen Sie sich von unserer Story überraschen!
Zielpu…
Mit den aktuellen Fortschritten im Deep Learning wird es erstmalig möglich, in Texten maschinell sprachliche Nuancen zu erkennen, Inhalte in ihrem inhaltlichen Kontext zu interpretieren, unstrukturierte Datentypen in die Analysen einzubeziehen, benutzbare natürlichsprachige Benutzerschnittstellen bereitzustellen und Zusammenhänge zielgruppengerecht zu erläutern. Damit werden einige alte Weisheiten des betrieblichen Datenmanagements obsolet. Es stellt sich die Frage, ob nicht hierdurch Aufgaben…