Die im Konferenzprogramm der TDWI München digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.
Für alle, die eine alternative Darstellung bevorzugen bieten wir unser Programm-PDF an:
» Zum PDF-Download
Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.
Das „Projekt GAIA-X“ wird in den Veröffentlichungen des Bundesministeriums für Bildung und Forschung als Wiege eines offenen digitalen Ökosystems gesehen, in dem Daten sicher und vertrauensvoll verfügbar gemacht, zusammengeführt und geteilt werden können. Ziel ist es, gemeinsam mit weiteren europäischen Ländern für Europa, seine Staaten, seine Unternehmen und seine Bürgerinnen und Bürger die nächste Generation einer vernetzten Dateninfrastruktur zu schaffen, die den höchsten Ansprüchen an digitale Souveränität genügt und Innovationen fördert. Der Vortrag bezieht sich auf das (politische) Zielbild, den Prozess der Entstehung, auf die Beteiligten sowie die europäische Integration, um eine öffentliche Diskussion zu begleiten und Interessierte in das Thema einzuführen.
Dimensionale Datenstrukturen sind besonders für die Anfertigung von Ad-hoc-Analysen geeignet, da diese der natürlichen Sicht entsprechen, die die Fachanwender auf ihren Geschäftsbereich haben. Der Aufbau dieser Strukturen ist allerdings aufwändig, wodurch diese nur für stabile Datenstrukturen geeignet sind. Diese sind allerdings gerade im Kontext von Self-Service-Analysen meist nicht gegeben. In diesem Beitrag wird ein Konzept beschrieben, durch das eine flache Tabelle (semi-)automatisch in ein Sternschema transformiert werden kann.
Zielpublikum: Data Engineer, Data Analyst
Voraussetzungen: Grundkenntnisse in der dimensionalen Datenmodellierung
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Self-Service-Business-Intelligence-Anwendungen erlauben es Fachanwendern, eigenständig Berichte und Analysen zu erstellen, ohne selbst über ausgeprägte technische Kenntnisse zu verfügen. Eine der am häufigsten verwendeten Datenquellen sind hierbei Flat Files. Dies liegt darin begründet, dass flache Strukturen häufig für den Austausch und die Bereitstellung von Daten genutzt werden. Außerdem sind flache Strukturen leicht und ohne den Einsatz komplexer Softwareprodukte zu erzeugen, selbst wenn die Ursprungsdaten aus verschiedenen Quellen stammen. Als Grundlage für das Ad-hoc-Reporting sind flache Strukturen jedoch weniger geeignet, da sie aufgrund der hohen Anzahl an Attributen schnell unübersichtlich und komplex wirken können. Wesentlich geeigneter für das Erstellen von Analysen sind stattdessen dimensionale Datenstrukturen. Diese sehen die Aufteilung zusammengehöriger Daten in Dimensionen vor und werden in traditionellen BI-Umgebungen dazu verwendet, Ad-hoc- oder OLAP-Analysen durzuführen. Die Ausweitung des Anwendungsbereichs von Business-Intelligence-Systemen auf operative Fragestellungen in den letzten beiden Jahrzehnten hat zu heterogenen Anwendergruppen mit neuen, sich häufig ändernden Anforderungen geführt. Der Aufbau und die Betreuung einer großen Anzahl dimensionaler Strukturen ist durch Business-Intelligence-Experten jedoch in der Regel nicht zu leisten, wodurch diese Form der Modellierung, trotz ihrer offenkundigen Vorteile, in den letzten Jahren an Bedeutung verloren hat. Durch das, in diesem Beitrag vorgestellte Konzept, wird es Self-Service-Anwendern möglich, eigenständig dimensionale Modelle zu erstellen, ohne auf die Expertise von Fachleuten zurückgreifen zu müssen. Der Ablauf der Ad-hoc-Sternschema-Generierung kann dabei in drei Phasen unterteilt werden. In der ersten Phase erfolgt nach Identifizierung der Datentypen einer jeden Tabellenspalte die Transformation der flachen Tabelle in das Sternschema. Für die Identifizierung und Zusammensetzung der Dimensionstabellen wird ein Verfahren, basierend auf der Ermittlung funktionaler Abhängigkeiten, verwendet. In der zweiten Phase sind die generierten Ergebnisse manuell zu evaluieren und falls nötig zu korrigieren. In der dritten Phase werden die identifizierten Dimensions- und Faktentabellen mit Werten gefüllt und als separate Dateien ausgegeben.
Prof. Dr. Michael Schulz hält eine Professur für Wirtschaftsinformatik, insb. analytische Informationssysteme an der NORDAKADEMIE - Hochschule der Wirtschaft in Elmshorn und ist Studiengangsleiter des Master-Studiengangs 'Applied Data Science'. Seine Interessenschwerpunkte in Lehre, Forschung und Praxisprojekten liegen in der Business Intelligence und der Data Science. Er ist einer der Autoren des DASC-PM-Konzeptes.
Vortrag Teilen
Das vorliegende Forschungsvorhaben fokussiert die Unterstützung von Business-Anwendern bei der Identifikation, Modellierung und Umsetzung von KI-Projekten. Hierfür wurde ein Vorgehensmodell entwickelt, welches Business-Anwender vom Scouting für geeignete Anwendungsfälle, über das high-level Design und die Konfiguration der KI-basierten Applikation bis zur Umsetzung des Projektes begleiten. Das Modell besteht aus dem KI-Periodensystem, Der KI-Applikations-Taxonomie sowie einem Artefakt zur Umsetzung von KI-Projekten, welches sich derzeit in der Validierungsphase befindet. Das KI-Periodensystem erlaubt im ersten Schritt des Modells die Auswahl von KI-Funktionalitäten entlang eines Agenten-basierten Ansatzes und ermöglicht dem Anwender somit die Erstellung eines high-level Design. Da die Funktionalitäten jeweils mit den menschlichen Intelligenzformen hinterlegt sind, ermöglicht das Artefakt zusätzlich die Diskussion zu den organisatorischen Auswirkungen im unmittelbaren Umfeld der potenziellen KI-Applikation. Im zweiten Schritt des Vorgehensmodells wird das KI-basierte System ebenfalls entlang der Agenten-basierten Perspektive konfiguriert. Die Komponenten und Charakteristika der KI-Applikations-Taxonomie ermöglichen dem Anwender eine gezielte Konfiguration der Anwendung, welche anschliessend als Grundlage für die Spezifikation der Anforderungen an das jeweilige System genutzt werden können. Die Taxonomie eignet sich ausserdem zur strategischen Analyse von Konkurrenz-Applikationen oder zur Auswahl beim Einkauf KI-basierter Applikationen. Im dritten und letzten Schritt des Vorgehensmodells wird die Umsetzung des KI-Projektes entlang des Data Science-/CRISP-Prozesses inkl. in den jeweiligen Projektabschnitten beteiligten Rollen und Risiken dargestellt. Hierbei sollen Business-Anwender nicht nur bei der Orientierung innerhalb des Projektes unterstützt werden, sondern vor allem zur Kommunikation befähigt werden. Aufgrund dessen enthält das dritte Artefakt einen reichhaltigen Fundus an KI-Algorithmen, welche den jeweiligen Projektphasen zugeordnet und definiert sind. Somit erhält der Business-Anwender nicht nur einen Überblick über das gesamthafte Vorgehen zur Umsetzung des KI-Projektes, sondern wird befähigt, die KI-spezifische Terminologie zu verstehen und anzuwenden. Die zuvor genannten Artefakte wurden bzw. werden basierend auf dem Design Science Research-Ansatz in einem Konsortialforschungsprojekt sowie mittels Literaturanalysen, Umfragen und Fokusgruppen-Interviews entwickelt. Das Vorgehensmodell soll in seiner Gesamtheit einen Beitrag zur Umsetzbarkeit von KI-Projekten und zum KI-Verständnis für Business-Anwender leisten. Andererseits bieten die enthaltenen Artefakte Unterstützung bei der Analyse und Auswahl von KI-Systemen, Konfigurationen und Algorithmen und halten gemäss der Rückmeldungen von Experten grossen Mehrwert für die Praxis bereit, bei einigen Unternehmen befinden sich die Artefakte bereits im Einsatz. Ziel der Präsentation ist die kritische Diskussion der Zusammenhänge zwischen den einzelnen Artefakten sowie die Auseinandersetzung mit dem Modell zur Auswahl von KI-Algorithmen im vierten und letzten Schritt des Vorgehensmodells.
70% aller deutschen Unternehmen und Institutionen sind von Cyberkriminalität betroffen und die Bedrohungslage sowie die Schäden durch Cyberkriminalität steigen stetig weiter an (BSI, 2018, S. 15; BKA, 2017). Um sich dieser Bedrohung zu stellen, kommen immer häufiger auch Intrusion-Detection-Systeme zum Einsatz. Künstliche Neuronale Netzwerke der Adaptiven Resonanztheorie sind dabei in der Lage eine grundlegende Frage zu lösen: Wie kann ein solches System automatisch neuartige Angriffe erkennen und in seine Wissensrepräsentation integrieren?
Durch die Integration digitaler Zahlungsströme in ein IoT-System werden Interaktion zwischen Objekten um eine wirtschaftliche Komponente erweitert. Dies schafft die Grundlage für ein digitales und offenes Wirtschaftssystem – die Economy of Things (EoT). Hierbei soll untersucht werden, welche Voraussetzungen eine EoT erfüllen muss, um einen Mehrwert in der Praxis zu stiften. Ziel der Arbeit ist es, ein Modell für die Gestaltung einer solchen EoT zu erstellen und zu evaluieren.
Systeme zur Defekterkennung und Qualitätssicherung in der Produktion verfolgen das Ziel, Ausschussraten zu minimieren und Qualitätsstandards einzuhalten. Die dadurch angestrebte Reduktion der Produktionskosten folgt dem übergeordneten Ziel, der Maximierung der Wertschöpfung. Zu diesem Zweck lassen sich bildbasierende- sowie analytische Methoden und Techniken kombinieren. Die Konzepte Computer Vision und Image Mining bilden hierbei die Grundlage, um aus Bilddaten einen Wissensgewinn im Hinblick auf die Produktqualität zu generieren. Im Rahmen dieses Vortrags werden die Unterschiede und Gemeinsamkeiten der beiden Konzepte erläutert und anhand eines Prototyps für die Additive Fertigung erklärt.
Sebastian Trinks ist wissenschaftlicher Mitarbeiter und Doktorand am Institut für Wirtschaftsinformatik an der TU Bergakademie Freiberg. Seine Forschungsinteressen sowie der Schwerpunkt seiner Dissertation liegen im Spannungsfeld der Industrie 4.0 sowie der Smart Factory. Herr Trinks forscht in diesem Kontext zu Themen aus den Bereichen Image Processing, Computer Vision, Real Time Analytics sowie Edge Computing.
Prof. Dr. Carsten Felden ist Universitätsprofessor an der TU Bergakademie Freiberg in Sachsen. Dabei hat er die Professur für ABWL, insbesondere Informationswirtschaft/Wirtschaftsinformatik inne. In der Lehre fokussiert Prof. Dr. Felden auf Business Intelligence und Predictive Analytics. Zentrale Forschungsthemen sind Arbeiten im Bereich der Analytics, des Data Warehousing, der Prozessanalyse, der XBRL und Analysen in IT-Reifegradmodellen. Er ist Vorstandsvorsitzender des TDWI Deutschland e.V. Er publizierte Artikel in internationalen wissenschaftlichen Journalen und Konferenzen und schrieb Bücher zu Themen aus dem Gebiet der Entscheidungsunterstützung. Darüber hinaus ist er als Gutachter für zahlreiche nationale und internationale Journale und tätig. Neben seiner wissenschaftlichen Tätigkeit berät er unterschiedliche Unternehmen zu den oben genannten Themen.
Vortrag Teilen