
Die im Konferenzprogramm der TDWI München 2022 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Hier können Sie die Programmübersicht der TDWI München 2022 mit einem Klick als PDF herunterladen.
Thema: Data Management
- Montag
20.06. - Dienstag
21.06. - Mittwoch
22.06.
Der hohe Grad der Standardisierung, die einfache und einheitliche Importlogik und die klare Trennung der Schichten ermöglicht eine weitgehend automatische Erzeugung der Importlogik für ein Data Vault-Modell.
Dabei muss nicht unbedingt ein Generator gekauft werden. Man kann auch das bereits im Projekt verwendete ETL-Werkzeug, wie den Oracle Data Integrator (ODI), erweitern, um die Logik zur Beladung zu erzeugen.
Wir zeigen die Vorteile dieser Lösung für die DWH-Projekte der Norma Lebensmittelfilialbetrieb Stiftung & Co. KG.
Zielpublikum: Data Engineers, BI Project Managers, an Data Vault Interessierte
Voraussetzungen: Grundkenntnisse in Datenmodellierung und Data Warehousing sind vorteilhaft
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Nach einer kurzen Einführung in die Data Vault-Grundstrukturen (Hubs, Links, Satellites, Point-In-Time Tables, Bridges) konzentriert sich der Vortrag auf die automatisierte Generierung der Beladungslogik für die elementaren DV-Strukturen (Hubs, Links, Satellites).
Code-Generierung lohnt sich nicht nur, sie ist bei Data Vault notwendig. Die hohe Anzahl der Datenstrukturen und der damit verbundenen Ladeprozesse sind mit manueller Modellierung nur schwer zu bewältigen.
Code-Generierung dient primär der Entlastung der Entwickler von repetitiven Tätigkeiten und schafft die Voraussetzung für schnelle und agile Projekte. Darüber hinaus ist generierter Code standardisiert und hat eine einheitliche Qualität.
Am Beispiel des Oracle Data Integrators (ODI) wird gezeigt, dass mit einem eigenen Generator nicht nur SQL-Statements erzeugt werden, sondern direkt Mappings im ETL-Werkzeug, so dass kein 'Medienbruch' zur manuellen Modellierung entsteht.
Die hohe Flexibilität dieses Ansatzes ermöglicht es, dass der Generator projekt- und kundenspezifische Anforderungen realisieren kann. So wurde bei Norma ein neues Data Warehouse für den Online-Handel (Norma 24) mit einer reinen Data Vault 2.0-Ladelogik aufgebaut. Gleichzeitig wurde das bestehende dimensionale Data Warehouse für den stationären Handel um eine Data Vault-Schicht ergänzt, die sowohl Data Vault 1.0- als auch 2.0-Schlüssel generiert, um eine fließende Migration ohne Downtimes zu ermöglichen.
Markus Schneider arbeitet als Managing Consultant für das IT-Dienstleistungsunternehmen PRODATO Integration Technology GmbH. Er ist seit mehr als 15 Jahren als Berater, Software-Entwickler, Projekt-Manager und Data Warehouse Architect im Oracle-Umfeld tätig. Seine Spezialgebiete sind Datenmodellierung und ETL-Entwicklung.
Andreas Krake arbeitet als Projekt-Manager für ERP-Systeme und BI-Anwendungen bei der Firma Norma Lebensmittelfilialbetrieb seit 5,5 Jahren. Auf Grund der fast 14-jährigen Betriebszugehörigkeit mit vorangegangenen Tätigkeiten als Bereichsleiter Verkauf und im Inhouse Consulting bildet er das Bindeglied zwischen den fachlich-organisatorischen Anforderungen und der technischen Umsetzung.
Vortrag Teilen
Die EDEKA Gruppe ist der größte Lebensmitteleinzelhändler in Deutschland. Täglich fallen Millionen Daten zu Kassiervorgängen, Artikeln und Händlern an. Damit diese auch zukunftssicher verarbeitet werden können, wird auf die zukunftsorientierte Technologie von SAP HANA gesetzt und sich von der bisherigen Datenbank getrennt. SAP bietet mit der InMemory-Technologie und der spaltenbasierten Speicherung einen Vorteil, was Performance und Speicherkapazität angeht. Wir zeigen, wie solch eine Migration im Livebetrieb erfolgreich durchgeführt wurde.
Zielpublikum: Product Managers, DWH-Engineer
Voraussetzungen: Knowledge in ETL and Datawarehouse Environments
Schwierigkeitsgrad: Einsteiger
Torsten Peters ist seit dem Jahr 2000 Mitarbeiter der Edeka Gruppe. In dieser leitete er diverse Projekte im Datenbankbereich, bis er schließlich 2009 die Leitung des Teradata BI-Bereiches bei der EDEKA DIGITAL übernahm. Seit nunmehr fast zwei Jahren leitet er nun die Migration auf SAP HANA mit und ist weiter als Produktmanager für den BI-Bereich zuständig.
Nach Abschluss eines Physikstudiums an der TU Berlin ist Lysander Schröder direkt bei Syncwork AG als IT-Berater eingestiegen. Dort beschäftigt er sich nun seit mehreren Jahren in verschiedenen Projekten mit diversen Datenbanken, sowie der der Analyse der darin enthaltenen Daten.
Vortrag Teilen
Einen exzellenten Umgang mit Daten zu kultivieren und damit nachhaltige Datenkompetenz im Unternehmen zu verankern, sind entscheidende Enabler, um den digitalen Wandel zum modernen Fintech-Unternehmen zu meistern. Mit der Ausbildungsoffensive „Informations- und Datenmanagement” hat die RLB OÖ 2019 einen Trainings-Piloten gestartet, der sich zu einem etablierten Schulungsprogramm für die gesamte Organisation entwickelt hat. Wie man ein solches Programm samt praxisnahem Lehrplan aufbaut, erzählt die Data Governance Spezialistin Iris Thallinger.
Zielpublikum: Project Manager, Data Governance Manager, Data Passionist, CDO, CIO
Voraussetzungen: Basic knowledge
Schwierigkeitsgrad: Einsteiger
Iris Thallinger absolvierte ein Studium der Wirtschafts- und Rechtswissenschaften an der JKU/Linz und hat mehr als 15 Jahre Erfahrung im Bereich Projekt- und Prozessmanagement im Bankensektor. Anfang 2017 bis Ende 2020 hat sie den Aufbau von Data Governance in der RLB OÖ verantwortet und wurde für diese Leistung 2020 mit dem Austrian Data Hero Award ausgezeichnet. Seit Januar 2021 ist sie im Datenschutz der RLB OÖ tätig.
Auch für die SIGNA, einen der weltweit größten Immobilienentwickler, ist datengetriebene Unternehmenssteuerung ein entscheidender Erfolgsfaktor. Zur Implementierung des DWH wurde ein fachlicher Ansatz gewählt: Geschäftsfunktionen und -objekte werden im Fachdatenmodell abgebildet und direkt als Data Vault-Modell realisiert. So kann die Time-to-market deutlich reduziert, sowie Wartbarkeit und Transparenz markant gesteigert werden. Vor allem: Die Datennutzer verstehen die Daten und können deren fachliche und technische Lineage nachvollziehen.
Zielpublikum: Data Governance-Verantwortliche, Data Scientists, CDO
Voraussetzungen: Experience, Senior Level
Schwierigkeitsgrad: Fortgeschritten
Daniela Graussam leitet in der SIGNA das gruppenweite IT Application Management, das geschäftskritische Applikationen für Finanz, Bauwesen, Asset Management, sowie interner Organisation zur Verfügung stellt. Sie und ihr Team agieren als Sparring-Partner der Fachabteilungen bei der Gestaltung und Digitalisierung komplexer Geschäftsprozesse und ermöglichen deren Umsetzung. Daniela hat nach einem Wirtschaftsstudium erfolgreich ein MBA Studium in Kalifornien abgeschlossen.
Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Vortrag Teilen
Vortrag Teilen
The real magic of AI lays in well managed data to build and train the underlying models. Accordingly, streamlined data management process are essential for success in AI. In this session we are going to discuss data management for AI and ask questions like 'What is data management for AI?', 'Are there difference to well-known approaches from BI & Analytics' and 'Do we need special AI data engineers?'.
TDWI Community Talk is an open format to discuss current topics in the area of data analytics within the TDWI community.
Target Audience: All data entheusiasts
Prerequisites: No prerequisites
Level: Basic
Extended Abstract:
The area of artificial intelligence is currently trending and transforms BIA landscapes in many organizations. There are many new initiatives and promises, however, to build all these fancy applications a well-thought data management is necessary. Nevertheless, the discussion of AI often focuses various models and cool programming languages and the underlying data engineering is often neglected. This is why this session focuses data management for AI and discusses approaches and best practices with the TDWI community.
The goal of this session is:
- Give the audience an overview what 'Data Management for AI' means and what basic terms are.
- Discuss current best practices and challenges with experts and the audience.
- Reflect different views on differences between processes in AI and BI, the role of a data engineer, software tools and many more.
The 'TDWI Data Schnack' is an interactive format that wants to engange the discussion in the TDWI community. It provides a plattform that highlights different aspects of a current topic and inspires discussions between experts and other community members. Therefore, the course of a Data Schnack session contains a short introduction talk that introduces a basic understanding of the topic. Followed by a panel discussion with experts from different fields. Lastly, an open discussion integrates the audience to share knowledge between all participants.
Julian Ereth is a researcher and practicioner in the area of Business Intelligence and Analytics. As a solution architect at Pragmatic Apps he plans and builds analytical landscapes and custom software solutions. He is also enganged with the TDWI and hosts the TDWI StackTalk.
Timo Klerx ist Gründer und Data Scientist von und bei paiqo und hilft Kunden bei der Konzeption und Umsetzung von Projekten im Bereich Artificial Intelligence / Data Science / Machine Learning.
Die ersten Berührungen mit AI hatte Timo in einem Forschungsprojekt zur automatischen Manipulationserkennung von Geldautomaten.
Bevor er sein eigenes Startup gründete, sammelte er Erfahrungen in einem anderen Data Science Startup und fokussierte sich dort auf den Bereich Machine Analytics inkl. Use Cases wie Predictive Maintenance und Predictive Quality.
Weiterhin engagiert sich Timo bei diversen Data Science Meetups in Paderborn, Münster und gesamt NRW.
Malte Lange ist Produktverantwortlicher für Data Analytics bei der Finanz Informatik, dem zentralen Digitalisierungspartner in der Sparkassen-Finanzgruppe.
Die Schaffung von datengetriebenen Banking Lösungen ist seit 2019 sein Themenschwerpunkt. Unter anderem verantwortet er die omni-channelfähige Kundenansprache „Next Best Action“ für die digitale Finanzplattform OSPlus und sorgt für die Weiterentwicklung der zentralen Data Analytics Plattform für analytische Anwendungsfälle im OSPlus. Gemeinsam mit Partnern in der Sparkassen-Finanzgruppe entwickelt er neue datengetriebene Lösungsansätze für Sparkassen, um das Potential vorhandener Daten zu realisieren.
Vortrag Teilen
- Welche Organisationsstruktur und welche Prozesse machen Sinn?
- Was kann man abseits der (alt-)bekannten Strukturen und Prozesse ansetzen, um nachhaltig fruchtbaren Boden für Datenqualität und Integrationsstrukturen zu schaffen?
- Was funktioniert aus Sicht von MediFox im „wahren“ Leben, und was nicht?
- Welche Verantwortlichkeiten und Prozesse organisiert man besser zentral und welche besser dezentral?
Schwierigkeitsgrad: Einsteiger
Das IoT erzeugt eine unermessliche Flut an Daten. Einzelne Datenpunkte sind einfach zu handhaben. Doch die Menge und Vielfalt der Daten sowie die Geschwindigkeit der Entstehung sorgen für eine hohe Komplexität.
In der Session werden verschiedene Aspekte des Datenmanagements von Sensordaten vorgestellt wie Speicherung, Verarbeitung, Architektur, u.a.
Zielpublikum: Data Engineer, Data Architect
Voraussetzungen: Basic Knowledge
Schwierigkeitsgrad: Einsteiger
Andreas Buckenhofer arbeitet bei Mercedes-Benz Tech Innovation in Ulm. Er verfügt über langjährige Erfahrung in der Entwicklung datenintensiver Produkte. Seine Schwerpunkte dabei sind insbesondere Datenarchitektur, Datenspeicherung, Datenintegration und Datenqualität.
Vortrag Teilen
Porsche hat in den vergangenen Jahren ein DWH mit konsolidierten Fertigungsdaten on premises aufgebaut. Entsprechend der Cloud-Strategie werden nun sukzessive Lösungen in die Cloud migriert. Dieser Cloud-Move der DWH-Lösung ist aber nicht nur ein trivialer Wechsel von on prem in die Cloud. Neben der Datenplattform betrifft dieser Wechsel natürlich auch die Datenflüsse. Dank des eingesetzten Metadata-Driven Ansatzes ist die Migration aber kein Hexenwerk. Im Vortrag werden die Migrationsschritte aufgezeigt und erläutert.
Zielpublikum: Data Engineer, Project leader, decision makers, ...
Voraussetzungen: Basic knowledge, experience in data warehousing and cloud technologies
Schwierigkeitsgrad: Einsteiger
Gregor Zeiler ist seit dreißig Jahren in verschiedenen Funktionen in der Business Intelligence-Beratung tätig. Im Zuge seiner beruflichen Tätigkeit konnte er umfangreiche Projekterfahrung in vielen Branchen und auf Basis eines breiten Technologiespektrums sammeln. Zahlreiche Publikationen und Vorträge begleiten seine berufliche Tätigkeit. Als CEO bei biGENIUS AG kommt er seiner Passion die Prozesse in der Entwicklung von Data Analytics Lösungen zu optimieren nach.
Vortrag Teilen
Beim Aufbau moderner DWHs kann man sich dem Thema 'Cloud' nur noch schwer entziehen. Echte Cloud-Datenbank wie z.B. Snowflake weisen den Weg konsequent in Richtung einer skalierbaren Datenplattform. Aufseiten der ETL-Werkzeuge kristallisiert sich mit Matillion ein herausragendes Werkzeug für Cloud DWH heraus. Mithilfe eines intelligenten Frameworks und einer agilen Vorgehensweise zeigt dieser Vortrag, wie Unternehmen die Data Vault-Modellierung mit der Skalierbarkeit der Cloud verbinden können.
Zielpublikum: DWH & BI-Experten, BI-Manager, Data Engineer
Voraussetzungen: DWH Grundwissen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Moderne DWHs basieren in der Regel auf einer Data Vault-Modellierung. Data Vault zeichnet sich durch eine extreme Flexibilität und Erweiterbarkeit aus, die aber u.a. durch eine Vielzahl an Datenbankobjekten mit entsprechend vielen Referenzen erkauft wird. Eine manuelle Erstellung eines Data Vault-Modells inkl. der Ladroutinen verbietet sich schon vor dem Hintergrund des zu erwartenden Arbeitsaufwandes. Vielmehr noch schreit ein Data Vault-Modell aufgrund der hohen Standardisierung geradezu nach einer Automatisierung oder zumindest automatisierten Generierung.
Matillion bietet auf den ersten Blick keine Möglichkeit, komplexe Datenmodelle zu erzeugen oder gar ELT-Prozesse zu automatisieren. Matillion bietet aber sehr wohl das technische Grundgerüst, um eine Automatisierung zu entwerfen und auszuführen. Dieser Herausforderung hat sich areto angenommen und einen DV-Generator-Framework entwickelt, das den Aufbau eines Data Vault-basierten DWHs automatisiert und sowohl die Datenmodellierung als auch die Datenbewirtschaftung anhand weniger Metadaten realisiert.
Der areto DV-Generator basiert auf Matillion Standardoperator und der Fähigkeit Matillions, alle Operatoren mittels Variablen zu dynamisieren. Der Anwender muss lediglich ein paar Metadaten pflegen und die Fragen beantworten, die im Zuge jeder Data Vault-Modellierung gestellt werden. Auf Basis dieser Daten wird dann ein komplettes Data Vault 2.0-Modell generiert und beladen. Dem Entwickler steht somit eine Ergänzung zu Matillion zur Verfügung, die es ermöglicht, innerhalb sehr kurzer Zeit ein komplett standardisiertes und auf Best Practices basierendes DWH zu generieren und sukzessive zu erweitern.
André Dörr, BI Consultant und Data Engineer bei areto consulting. Als zertifizierter Data Vault 2.0 Practitioner (CDVP2) verfügt er über mehr als 12 Jahre Erfahrung in BI-Projekten in verschiedenen Industriesektoren. Er ist derzeit ein führender Data-Warehouse-Architekt bei areto, Sprecher auf Konferenzen und Autor des auf Sportwetten fokussierten Data Science Blogs https://beatthebookie.blog. André hat eine Leidenschaft dafür, Daten zum Leben zu erwecken und interessante Geschichten zu erzählen, die den digitalen Wandel in Unternehmen vorantreiben.
Petrol is Slovenian company that operates in 8 countries in SEE with 5BEUR annual revenue. As traditional publicly-owned company, Petrol has faced necessity for transformation to stay ahead in highly competitive market. Use of BIA was mainly reactive, but in recent years it has transformed into competitive advantage by using cloud technologies and industry specific analytical models and focusing on the content and creating business value. This value is now being leveraged as competitive advantage through proactive use of data and analytics.
Target Audience: Decision Makers, Data Architects, Project Managers
Prerequisites: None
Level: Basic
Extended Abstract:
Petrol is Slovenian company that operates in 8 countries in SEE with 5BEUR annual revenue. Main business activity is trading in oil derivatives, gas and other energy products in which Petrol generates more than 80 percent of all sales revenue and it also has a leading market share in the Slovenian market. Petrol also trades with consumer goods and services, with which it generates just under 20 percent of the revenue. Use of BIA was mainly reactive, but in recent years it has transformed into competitive advantage by using cloud technologies and industry specific analytical models and focusing on the content and creating business value. This value is now being leveraged as competitive advantage through proactive use of data and analytics. Presentation will cover main business challenges, explain technology architecture and approach and discuss results after three years of system development and use.
Andreja Stirn is Business Intelligence Director with more than 20 years of experience working in the Oil & Energy and Telco industry. Skilled in Data Warehousing, Business Intelligence, Corporate Performance Management, Market Research and People Management.
Dražen Orešcanin is Solution Architect in variety of DWH, BI and Big Data Analytics applications, with more than 25 years of experience in projects in largest companies in Europe, US and Middle East. Main architect of PI industry standard DWH models. Advised Companies include operators from DTAG, A1 Group, Telenor Group, Ooredoo Group, Liberty Global, United Group, Elisa Finland, STC and many companies in other industries such as FMCG and utilities.
Vortrag Teilen
Zum Management einer Bonus Club Karten Lösung mit mehreren Geschäftspartnern musste binnen kürzester Zeit eine BIA Lösung aufgebaut werden.
Im Vortrag wird gezeigt wie die Anbindung der Geschäftspartner über Cloud und OnPrem Komponenten erfolgt und mittlerweile seit Beginn dieses Projektes 16 individuelle Partner DWH Lösungen inkl. einer Unified DWH Lösung aufgebaut wurden.
Die DWH Lösungen selbst wurden On Prem implementiert. Die Reporting Anbindung der Geschäftspartner inkl. der Data Mart Schicht liegt dann wieder in einer Cloud Umgebung. Im Vortrag wird auf die Herausforderungen und Lösungsansätze im Zuge der Umsetzung dieser komplexen hybriden Architektur eingegangen.
Gregor Zeiler ist seit dreißig Jahren in verschiedenen Funktionen in der Business Intelligence-Beratung tätig. Im Zuge seiner beruflichen Tätigkeit konnte er umfangreiche Projekterfahrung in vielen Branchen und auf Basis eines breiten Technologiespektrums sammeln. Zahlreiche Publikationen und Vorträge begleiten seine berufliche Tätigkeit. Als CEO bei biGENIUS AG kommt er seiner Passion die Prozesse in der Entwicklung von Data Analytics Lösungen zu optimieren nach.
Vortrag Teilen
Data Mesh ist heute DER Trend im Datenmanagement. Es wendet Microservice-Architekturansätze auf jede Art von Datenverarbeitung an und betrifft so auch Data Warehouses oder Data Lakes.
Publikationen erschöpfen sich heute oft noch in der Betrachtung der - sicherlich wichtigen - kulturellen und organisatorischen Auswirkungen.
Wir zeigen zudem auch live anhand eines konkreten Beispiels, wie Data Engineering, Data Governance, Data Warehousing etc. davon beeinflusst wird, wie eine konkrete Lösung aussehen kann und welche Hürden dabei zu nehmen sind.
Zielpublikum: Digitalization Specialists, Enterprise and Solution Architects, Data Engineers, Data Scientists, Project Leaders, Decision Makers
Voraussetzungen: Basic knowledge in: Data Management, Data Warehousing, Lösungsarchitekturen
Schwierigkeitsgrad: Einsteiger
Extended Abstract:
Data Mesh ist ein relativ neues Konzept, das sich seit 2020 zu einem der am schnellsten wachsenden Trends entwickelt hat. Es erweitert den Paradigmenwechsel, der durch die Microservices-Architekturen eingeleitet wurde, und wendet ihn auf Datenarchitekturen an, die agile und skalierbare Analysen und maschinelles Lernen oder Künstliche Intelligenz ermöglichen - und beeinflusst somit auch das DWH.
Data Mesh ist keine Technologie, sondern eine Praxis ... eine recht komplexe Praxis. Es ist eine neue Art, Daten, Data Engineering und alle damit verbundenen Prozesse zu betrachten, d. h. Data Governance, Datenqualität, Auditing, Data Warehousing und maschinelles Lernen. Es verändert die Perspektive, wie wir Daten in einem Unternehmen betrachten, völlig: Wir sind es gewohnt, sie von einem technischen Standpunkt aus zu betrachten, also wie man sie verwaltet, speichert, verarbeitet, welches ETL-Tool eingesetzt wird usw. Data Mesh dreht das auf die Geschäftsperspektive und hält dazu an, mit ihnen umzugehen, als wären sie echte Vermögenswerte, oder schlicht: als wären sie ein Produkt.
Spannend, aber was bedeutet das? Wie genau setze ich einen Data Mesh um und wie unterscheidet es sich von bekannten Ansätzen wie DWH, Data Mart, Data Lake und Data Hub in der Praxis? Ist Data Mesh etwas für mich und mein Unternehmen und wenn ja, warum sollte ich es tun? Wie steht Data Mesh zu operativen Systemen? Lassen sich moderne, streaming- bzw. event-basierte Architekturen mit Data Mesh kombinieren? Wie gehe ich vor, wenn ich Data Mesh im Unternehmen einführen will?
In unserem Vortrag gehen wir auf diese und weitere Fragen ein.
Vor allem aber zeigen wir in einer Live-Demo ein End-2-End-Beispiel, welches die konkrete Umsetzung eines Data Mesh in der Praxis zeigt. Die Technologien und Services, auf welchen die Dataprodukte basieren, sind dabei ebenfalls ein Thema.
Guido Schmutz ist seit über 30 Jahren als Software-Entwickler, Berater, Architekt, Trainer und Coach tätig. Heute arbeitet er als Platform Architect für das IT-Dienstleistungsunternehmen Trivadis - Part of Accenture. Sein Interesse liegt in der Architektur, dem Design und der Umsetzung von modernen Software-Lösungen. Seit einigen Jahren beschäftigt er sich hauptsächlich mit Big Data & Fast Data und der Frage, wie sich diese neuen Technologien optimal in eine moderne Datenplattform integrieren lassen. Er ist regelmäßiger Sprecher auf internationalen Konferenzen und ist bekannt als Autor von Fachartikeln und diversen Fachbüchern.
Peter Welker verfügt über 30 Jahre IT-Projekterfahrung als Entwickler und Lösungsarchitekt. Bei Trivadis - Part of Accenture ist er heute Partner und Plattform-Architekt für Big Data und Data Warehousing. Als Autor verschiedener Fachbücher, regelmäßiger Referent und Keynote Speaker auf Data Warehouse- und Datenbankkonferenzen ist er mit diesen Themen seit Jahren bestens vertraut.
Vortrag Teilen
Der Einsatz hochauflösender Bildsensoren sowie deren konstante Vernetzung über das Internet der Dinge bildet die Grundlage für viele neue Anwendungsszenarien im Spannungsfeld von Computer Vision Systemen. Beispiele lassen sich unter anderem in der Landwirtschaft, der Fertigung, dem Bereich des autonomen Fahrens oder im Gesundheitswesen finden. Doch wie wirkt sich der Einsatz solcher Systeme auf das Wertangebot von Unternehmen aus? Wann ist die aufwendige und teils kostspielige Implementierung in die Unternehmensprozesse ökonomisch sinnvoll? Diese Fragestellung wurde mittels eines Qualitativen Forschungsansatzes betrachtet und analysiert. Dabei stellte sich die Erhöhung der Qualität, die Reduzierung der Kosten sowie die Effizienzsteigerung, als die meist priorisierten Ziele der befragten Experten heraus.
Sebastian Trinks ist wissenschaftlicher Mitarbeiter und Doktorand am Institut für Wirtschaftsinformatik an der TU Bergakademie Freiberg. Seine Forschungsinteressen sowie der Schwerpunkt seiner Dissertation liegen im Spannungsfeld der Industrie 4.0 sowie der Smart Factory. Herr Trinks forscht in diesem Kontext zu Themen aus den Bereichen Image Processing, Computer Vision, Real Time Analytics sowie Edge Computing.
Die zunehmende Verfügbarkeit orts- und raumbezogener Daten durch mobile und stationäre telemetrische Sensorik, durch Fernerkundung, IoT, Citizen Science u.a.m. führt zum Übergang von Big Data zu Spatial Big Data. Damit einhergehende Nachfrage nach immer echtzeitnäheren und endanwendertauglicheren Auswertungen in Verwaltung und Privatwirtschaft transzendiert die Business Intelligence zur Business & Location Intelligence. Entsprechende Werkzeuge verbinden klassische BI-Funktionalitäten mit Funktionen aus GIS/GDI, Geostatistik, Augmented Analytics und Spatial Data Mining. Dies führt zu neuen Herausforderungen und zu erschwerten Varianten bekannter Fragestellungen für BI-Tools in den Bereichen Nutzerführung und Gebrauchstauglichkeit, Datenmanagement & Data Engineering wie auch Anwendungsfälle zur räumlichen Entscheidungsunterstützung. Im vorgeschlagenen Vortrag möchten wir die Entwicklungsgeschichte der Datenanalyseplattform Disy Cadenza in Richtung eine vollwertigen BI- und LI-Plattform skizzieren und aktuelle wie auch mögliche zukünftige Ideen und Fragestellungen für Weiterentwicklungen und Forschungsvorhaben in den o.g. Themenfeldern diskutieren.
Dr. Andreas Abecker studierte Informatik und Wirtschaftswissenschaften an der TU Kaiserslautern und promovierte in Angewandter Informatik am Karlsruher Institut für Tchnologie. Er arbeitete als Forscher, Projektleiter und Abteilungsleiter am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) Kaiserslautern und am Forschungszentrum Informatik Karlsruhe. Seit 2010 leitet er die Forschungsaktivitäten der Disy Informationssysteme GmbH in Karlsruhe. Seine Themen umfassen Wissensbasierte Systeme und Maschinelles Lernen, Semantische Technologien und Web Science, Geodatenverarbeitung, Big Spatial Data, Geo AI sowie Business & Location Intelligence.
Prof. Dr. Peter Gluchowski hat an der Ruhr-Universität Bochum Mathematik mit den Schwerpunkten Stochastik und Operations Research (Dipl.-Math. und 1. Staatsexamen Lehramt) studiert und zum Dr. rer. oec. über "Simulation störanfälliger Systeme" promoviert (1985). Es folgten die Habilitation zum Thema "Entscheidungsunterstützungssysteme und Datenbanken" (1995) an der Abteilung Wirtschaftswissenschaft der Ruhr-Universität Bochum, Lehrstuhlvertretung (1993) und Berufung auf den Lehrstuhl Wirtschaftsinformatik und Operations Research (seit 2011 Lehrstuhl für Wirtschaftsinformatik, insbesondere Business Intelligence) an der Gerhard-Mercator Universität GH Duisburg (1995).
Torsten Ahlemeyer sammelt und löst unzählige Knobeleien rund um das Thema T-SQL. Immer geht es um Aufgaben, die extrem schnell zu erfassen, aber umso schwieriger zu lösen sind. Selbst erfahrene Developer scheitern oft bei der Ansatzsuche. Kennt man die Einfachheit der Lösung und blickt über den Tellerrand hinaus, sind plötzlich viele Herausforderungen des Entwickleralltags keine Hürde mehr. Diese Session ist eine unterhaltsame Lerneinheit in der kreativen Interpretation von Algorithmen - ohne dabei in die mathematische Theorie abzudriften.
Zielpublikum: Entwickler, Analysten
Voraussetzungen: Grundkenntnisse in SQL sind nicht zwingend notwendig, helfen aber beim Verständnis der zahleichen praktischen Anwendungen
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Letztes Jahr haben wir hier Sudoku gespielt, sind Achterbahn gefahren, usw. Dieses Jahr wird es noch herausfordernder. Wir lösen u.a. den Zauberwürfel mit reinem T-SQL, bringen dem SQL-Server das Stottern bei und vieles mehr. Alle Aufgaben und Lösungen sind ohne Laptop zu verfolgen. Es geht um die kreative Anwendung von JOINs, Tipps & Tricks mit Rekursionen, die Wahl des 'richtigen' Datenmodells, außergewöhnliche Optimierungsansätze, den Wechsel des Blickwinkels ...
Torsten Ahlemeyer realisiert seit über 18 Jahren Abrechnungs- und Stammdatenapplikationen in Großprojekten. Der Diplom-Wirtschaftsinformatiker hat als Entwickler angefangen und sich dann als Projektleiter in der Softwareentwicklung im Umfeld internationaler Projekte einen Namen gemacht. Die Microsoft-Technologie vom Betriebssystem über die Programmiersprachen war dabei in allen Projekten genauso gesetzt wie der MS-SQL-Server (SSAS, SSIS, SSRS, ...). Als IT-Consultant hilft Torsten Ahlemeyer Kunden der arelium GmbH hauptsächlich in der Rolle als Projektleiter, aber auch als Architekt, DB-Berater oder T-SQL-Spezialist bei der Umsetzung komplexerer Datenbankprojekte.