- Dienstag
11.06. - Mittwoch
12.06. - Donnerstag
13.06.
Seit Monaten befinden wir uns weltweit mal wieder in einem bekannten Zyklus, dem Hype-Zyklus, in dem die Erwartungen an die Potenziale neuer Technologien jeden Tag wachsen und unser Leben vor gefühlt fundamentalen Änderungen steht. Ausgelöst wurde dieser konkrete Hype durch Generative KI-Lösungen, entwickelt von sehr finanzmächtigen amerikanischen Unternehmen. Ob die Erwartungen Realität werden oder nicht, zeigt sich immer erst rückblickend. Dies gilt auch in diesem Fall. Dennoch sollten wir innehalten und aus Vergangenem lernen und dem Hype mit Realismus und vor allem einer guten Strategie begegnen. Denn ja, da sind ganz viele tolle Potenziale und Chancen, von denen wir alle profitieren möchten und vielleicht auch können, wichtig ist aber, diese organisationsindividuell zu identifizieren und in Bezug auf die unternehmensspezifischen Ziele zu evaluieren und umzusetzen. Zu häufig ist Unternehmensentscheidern noch nicht klar, welche Bedingungen in Bezug auf die technologische Infrastruktur, die domänenübergreifenden Kollaborationsmodelle oder Skills erfüllt sein müssen, bevor Daten und KI gewinnbringend genutzt werden können. Und häufig gelingt es Data Teams nicht, den Wert von Dateninitiativen nachvollziehbar darzustellen und den dafür nötigen Change oder das vorausgesetzte Commitment zu evozieren. Eine Möglichkeit diesen Herausforderungen zu begegnen ist eine sauber definierte Datenstrategie, die den Wertbeitrag oder ROI von Daten Produkten klar herausarbeitet und transparent macht.
Dr. Imme Baumüller ist Director Data & Analytics bei der Vaillant Group, einem führenden Hersteller von Wärmepumpen und Gasheizungen in Europa. Sie verantwortet dort die Bereiche Data Architecture & Governance, Data Science und Business Intelligence. Ihr Team entwickelt unter anderem datenbasierte Lösungen zur remote Steuerung von Wärmepumpen und kümmert sich um den Aufbau unternehmensinterner GenAI-Applikationen. Davor hat Frau Baumüller den Bereich Data Technology & Analytics bei der Handelsblatt Media Group in Düsseldorf aufgebaut und mitverantwortet. Ihre Schwerpunktthemen sind Data & AI Strategy, Daten-Transformation und der Return on Investment of Data. Sie hat an der Universität Mannheim promoviert und ihren MBA mit Schwerpunkt Strategy an der WHU Otto-Beisheim School of Management absolviert.
Erleben Sie die Veranstaltung in bewährter Manier mit Impulsvorträgen und Diskussionen live. Hier wird Datenwissen nicht nur geteilt, sondern gefeiert. In diesem besonderen Rahmen übernehmen weibliche Vordenkerinnen und Expertinnen die Führung, um wegweisende Ideen und Einsichten zu vermitteln. Die Veranstaltung ist offen für alle, unabhängig vom Geschlecht: Wir laden alle herzlich ein, die in der Welt der Daten Neues entdecken und sich inspirieren lassen wollen.
Moderation: Dilyana Bossenz
Daten gehören schon immer zu den wichtigsten Erfolgsfaktoren eines Unternehmens. Daten können über den Erfolg und den Niedergang entscheiden. An welcher Stelle steht das Thema Datenqualität in deinem Unternehmen?
Verantwortlich für alles, was mit Daten bei DGN zu tun hat, von der Entwicklung der Datenflüsse mit integrierten Datenqualitätschecks bis hin zu der Bereitstellung der Daten für die unterschiedlichen Endanwender.
Und am Schluss der wichtigste Teil, die eigenen Mitarbeiter zu fördern und ihre Potenziale herauszukitzeln
In einer Ära des Wandels scheitern viele Data Warehouse Projekte daran, langfristig Wert zu liefern. Eine zuverlässige Datenbasis ist allerdings entscheidend für eine erfolgreiche AI-Strategie. Um die langfristige Resilienz einer Datenplattform zu sichern, müssen geeignete Prozesse, Designkriterien und Projektkultur eingesetzt werden. Basierend auf umfangreichen Erfahrungen aus einer Vielzahl erfolgreicher Implementierungen werden bewährte Methoden und Fallstudien präsentiert, um die Widerstandsfähigkeit Ihres Data Warehouses zu stärken und damit die Basis für eine solide AI-Implementierung zu liefern.
Christoph Papenfuss ist bei Agile Data Engine für die Expansion und Entwicklung des Marktes in Zentraleuropa verantwortlich. Mit über 15 Jahren Erfahrung im Bereich Big Data bringt er umfangreiches Fachwissen mit. Vor seiner jetzigen Rolle bekleidete er leitende Positionen bei namhaften Unternehmen wie Cognos, OSIsoft und msg global. Während seiner 13-jährigen Tätigkeit in den USA sammelte er wertvolle Erfahrungen und Einblicke. Christoph ist leidenschaftlich daran interessiert, Daten zu nutzen und arbeitet gerne mit Organisationen zusammen, um robuste Datenstrategien zu entwickeln, zu implementieren und erfolgreich umzusetzen.
Martin ist Sales Director bei der Solita Germany GmbH und treibt die Entwicklung des DACH-Marktes voran. Mit über 25 Jahren Erfahrung in der IT-Beratung und im Lösungsvertrieb ist er ein Experte für die Welt der Daten. In früheren Positionen hat er die digitale Transformation in verschiedenen Branchen vorangetrieben, Vertriebsorganisationen aufgebaut, digitale Transformationen begleitet und Großkunden sowie Mittelstandskunden betreut. Sein unternehmerischer Geist zeigt sich in seiner Beteiligung an der Entwicklung eines Start-ups. Martin treibt mit Leidenschaft Wachstum und Transformation voran und leistet einen wertvollen Beitrag zur dynamischen Entwicklung von datengesteuerten EcoSystemen.
Datenqualität als zentrale Säule der Data Governance-Strategie ist eine Grundvoraussetzung für datenbasiertes Arbeiten in Unternehmen. Die Einführung eines Datenqualitätsmanagements ermöglicht aussagekräftige Analysen und viele Aufgaben werden langfristig effizienter bearbeitet. Doch häufig verfolgen Unternehmen bei der Einführung des Datenqualitätsmanagements kein systematisches Vorgehen, um den richtigen Ansatzpunkt zu finden. Datenqualitätsprobleme können dabei organisatorischen, fachlichen oder technischen Ursprung haben. Ohne organisatorische Hürden beseitigt zu haben, macht es wenig Sinn, technischen Ursachen auf den Grund zu gehen. Wie findet man systematisch den für das eigene Unternehmen richtigen Startpunktpunkt und stellt fest, wo Datenqualitätsprobleme ihren Ursprung haben? Welche Lösungsvorschläge passen zu häufig auftretenden Problemen? An welchem Punkt sollte Data Lineage eingeführt werden, um den Prozess ganzheitlich zu unterstützen?
Dr. Ina Humpert ist Mathematikerin und als Beraterin bei der viadee IT-Unternehmensberatung tätig. Ihr Schwerpunkt ist Data Engineering auf SQL basierten Datenbanken im Bankenumfeld. Außerdem interessiert sie sich für Daten-Visualisierung unter anderem mit Power BI.
Die Herausforderungen für Data Engineers und -Analysts im Big-Data-Universum ähneln einer intergalaktischen Mission: Sie müssen effizient durch gigantische und komplexe Datenmengen navigieren, die Datenqualität sicherstellen und schnelle, präzise Erkenntnisse aus den Daten gewinnen und visualisieren.
In dieser Case Study zeigen wir, wie die Kombination aus der leistungsstarken Aviator Database (Vertica) und der flexiblen Aviator Intelligence (Magellan) bei der Überwachung eines Mobilfunknetzes helfen kann und wie sich Probleme angesichts der großen Mengen an Mobilfunknutzungsdaten entschärfen lassen.
Erfahren Sie, wie Streaming-Daten in Lichtgeschwindigkeit in Vertica fließen und datenbankinterne Algorithmen für maschinelles Lernen helfen, potenzielle Netzüberlastungen vorherzusagen. Außerdem zeigen wir Ihnen, wie Sie durch sofortige Datenvisualisierung, interaktive Reports und Dashboard-Monitoring mit Magellan agieren können.
Nehmen Sie an dieser Session teil und erleben Sie ein praxisnahes Beispiel für Analytics und KI in Aktion.
Lilija hat über zwanzig Jahre Erfahrung in der Softwareindustrie – vom Projektmanagement bis zum technischen Vertrieb. Sie kam 2002 zu OpenText Analytics (damals noch Actuate) und übernahm 2017 die Verantwortung für das europäische AI & Analytics Solution Consultants Team. Sie unterstützt dort Kunden und Partner bei Umsetzung von Analytics- und AI Projekten.
Marco ist ein Data Warehousing- und BI-Profi in praktisch allen Disziplinen der Szene. Er entdeckte seine Leidenschaft für Vertica vor etwa 14 Jahren, als 2010 HP und anschließend Micro Focus, Vertica kaufte. Seit der Übernahme durch OpenText im vergangenen Jahr, ist er Chief Technologist für OpenText Aviator Database (ehemals Vertica).
Für das weltweit tätige Unternehmen Fressnapf ist der moderne und alltägliche Umgang mit Daten der Kern der Wertschöpfungskette.
Die Haltung des Managements zur Messbarkeit von „Happyness“ mittels Daten und einhergehend die Fokussierung auf die „richtigen“ Tätigkeiten, ist das Fundament.
Der Vortrag beschreibt, wie das Unternehmen zur Ausrichtung datenbasiertes Arbeiten kultiviert.
Die Herausforderungen besteht vielmehr darin, moderne Arbeitsweisen und die Haltung in Bezug auf Daten einzuführen sowie die gemeinsame Sicht auf eine datenbasierte Strategie herzustellen.
Alexander brings nearly two decades of expertise in Data & Analytics. Since December 2020, he has held the position of Head of Business Intelligence at Fressnapf|MaxiZoo, Europe’s largest Pet Retailer. In this role, Alexander leads the strategy and implementation of Fressnapf’s next generation Data & Analytics Platform, which incorporates Data Integration, Data Warehousing, Analytics, Reporting and Data Provisioning Services across the Fressnapf Group, with his team across Germany and Hungary.
Before joining Fressnapf, Alexander gained valuable experience working in Australia for several well-known companies, including Coles (Retail/Logistics), Jetstar Airways (Qantas Group/Aviation), and TelstraSuper (Finance/Telco). His academic background includes a PhD and MBA from Bond University, where his research focused on enhancing Analytics and Business Intelligence Systems with AI for decision automation, particularly in the context of pricing decisions for Retail Chains.
Axel Stoye weist eine über 20-jährige Erfahrung als Manager für IT, Change, Strategie und BI Lösungen bei Technologie- und Consulting-Unternehmen sowie als Endkunden auf. Als Managing Director der areto GmbH bringt er unter anderem seine langjährige Expertise bei der Umsetzung von datengetriebenen Unternehmen und dem Aufbau von Data-Analytics-Lösungen in die Geschäftsführung ein. Seine Ausbildungen als Trainer für Change Fazilitation und als neurosystemischer Coach zahlen insbesondere auf die Herangehensweise von Veränderungsprozessen ein. Auf dieser Basis treibt er den Auf- und Ausbau der areto gmbh, die Evaluierung neuer „Datenprodukte“ sowie die Weiterentwicklung bestehender Service Angebote und strategischen Beratungsleistungen noch weiter voran.
Mit dem 'Procurement Data Analyzer' hat die Melitta Gruppe einen entscheidenden Schritt in Richtung eines datengetriebenen Einkaufs getan. Er vereint Einkaufsdaten aus allen Geschäfts- und Unternehmensbereichen und schafft eine einheitliche Analyseplattform. Die Einkaufseffizienz wird essentiell gesteigert durch das Aufdecken von Synergien und Optimierung der Stammdaten. Mit Exasol, Datavaultbuilder und MicroStrategy wurde eine leistungsstarke Lösung mit einen intuitivem Frontend geschaffen, die die Einkaufslandschaft nachhaltig verändert.
Dr. Jonathan Hermann ist promovierter Physiker im Bereich der Teilchenphysik und Datenanalyse. Seit seiner Promotion arbeitet er bei synvert saracus als Consultant mit einem Fokus auf Data Engineering und Business Intelligence. Mit seiner Expertise unterstützt er Kunden bei der Verarbeitung, Analyse und Visualisierung von Daten, um so deren Business Insights zu maximieren.
Kirsten Heuer ist BI-Expertin in der Melitta Gruppe, wo sie mit ihrer Expertise in Datenmodellierung und -visualisierung das zentrale BI-Team unterstützt. Hier arbeitet sie in verschiedensten Projekten mit Kollegen aus unterschiedlichen Unternehmensbereichen und Ländern zusammen. Ihr Wissen aus dem Masterstudium in Intelligente Systeme setzt sie außerdem ein, um Machine Learning und Künstliche Intelligenz in der Unternehmensgruppe voranzutreiben.
Mit dem EU AI Act wird ein neuer Rahmen gesetzt und Unternehmen müssen sich fachlich und technisch mit AI Governance beschäftigen. Sollten sie auch, denn wie schon in anderen Regulierungen (Basel, Sarbanes-Oxley, Solvency), bieten sich neben der Pflicht zur Einschätzung und Dokumentierung weitere zahlreiche notwendige Ansatzpunkte und Chancen. Welches Unternehmen möchte als nächstes in den Reihen der peinlichen Veröffentlichungen von halluzinierenden oder rassistischen Bots aufgenommen werden? Oder welches Unternehmen kann es sich leisten, in MLOps/LLMOps bestimmte Trainings- und Modelldaten zu vernachlässigen? In diesem Vortrag werden einige grundsätzliche fachliche und ethische Aspekte beim Einsatz von AI diskutiert, aber auch ganz konkret anhand Technologie beleuchtet:
- Wie erfolgt eine Klassifizierung und Selbsteinschätzung von Risiken und wie kann dies zu weiteren Dokumentation verbunden werden?
- Wie können Modelle bei der Erstellung überwacht werden bzw. Fehler und ungewollte Aspekte erkannt und bewertet werden?
- Wie können produktive Modelle auch im Einsatz laufen geprüft werden und ggfls. nachjustiert werden?
Marc Bastien, Jahrgang 1967, arbeitet seit 1993 kontinuierlich in Analytics-Projekten. Nach einigen Jahren beim Endkunden, wechselte Marc Bastien schon bald zum Hersteller, um dort in zahlreichen Projekten in unterschiedlichen Branchen und Rollen mitzuarbeiten. Nach ca. 20 Jahren und zuletzt im Presales entschied er sich, wieder Lösungen von Anfang bis Ende zu begleiten. In seiner Eigenschaft als Analytics Architekt umfassen die Tätigkeiten von der Architekturberatung, über Umsetzung von analytischen Projekten bis zur Betriebsunterstützung großer Data Management Plattformen.
Weitere Informationen zu dieser Case Study folgen.
Nico Nerreter, 28 Jahre alt, arbeitet seit Mai 2023 in der Datenanalyse beim Bundesligisten FC Augsburg. Hier ist er für das Scouting/Recruitment und die Datenanalyse im sportlichen Bereich zuständig.
In der fabelhaften Welt der Technologie und Daten lebte ein mutiges Entwicklerteam, das auf der Suche nach dem sagenumwobenen Data Warehouse war. Doch der Weg war voller Herausforderungen: Merge-Konflikte wie dichte Nebelschwaden und Codefehler-Drachen versperrten ihnen den Weg. Da trat der weise Zauberer Datavault Builder auf den Plan. Mit seinem magischen Wissen über Datenmodellierung half er den Helden, die Geheimnisse des Data Warehouses zu entschlüsseln. Gemeinsam kämpften sie gegen die Kobolde der Performance-Probleme und öffneten die Türen zu unbegrenztem Wissen. Dank der Git-Fähigkeiten des Zauberers konnte das Entwicklerteam wachsen und sich skalieren. Und so endete ihre Geschichte nicht mit einem “The End”, sondern mit einem “git commit -m ‘Happy Ever After’”.
Jonas Baumann ist ein erfahrener Datenexperte mit einer langjährigen Erfahrung im Bereich Datenmanagement. Seit 2015 beschäftigt er sich intensiv mit Daten und hat dadurch ein tiefes Verständnis für die Organisation und Struktur von Daten entwickelt. Seine Arbeit hat dazu beigetragen, datenbasierte Lösungen zu entwickeln und die Effizienz in verschiedenen Unternehmensbereichen zu steigern. Aktuell ist Jonas bei der Controlware GmbH als Group Lead für den Bereich Data Management verantwortlich, was unter anderem die Bereiche Data Science und Data Warehouse umfasst.
Dr. rer. nat. Kilian Heck ist bei der Controlware GmbH als Data Scientist im Bereich Data Management beschäftigt. Seine Tätigkeitsbereiche umfassen operative und organisatorische Datenanalyse, insbesondere Data Warehousing, Workflow Automation, Machine Learning & Deep Learning sowie AI. Zuvor promovierte er im Fachbereich Neurowissenschaften an der Technischen Universität Darmstadt zum Thema generativer Modellierung optischer Bildgebungsverfahren.
Dominik Schuster ist Business-Intelligence-Experte und unterstützt als Principal Consultant seine Kunden beim Aufbau und der Weiterentwicklung maßgeschneiderter Datenplattformen. Seine Schwerpunkte liegen bei der Architekturberatung sowie Optimierung von Data Engineering und Data Warehouse Automation. In der frühen Konzeptionsphase hat er die Controlware GmbH mit Best Practices zum Thema Data Management und Modellierung unterstützt.
GenAI ohne Automatisierung – NOGO! Gemeinsam mit valantic hat Toyota Deutschland GenAI-gestützte Services entwickelt, die sowohl innerhalb des Unternehmens, Handelspartnern, Dienstleistern als auch bei Fahrzeughaltern als virtuelle Assistenten zum Einsatz kommen. Im Vortrag präsentiert Toyota das preisgekrönte Erfolgsprojekt eCare und zeigt darüber hinaus, in welchen Unternehmensbereichen (Gen)AI und modernste Chat-/Voicebot-Technologien in einem plattformübergreifenden Ansatz (Composable Architecture) zum Einsatz kommen können. Mit Toyo:DO hat Toyota nicht nur die Effizienz gesteigert, sondern auch die Kundenzufriedenheit erhöht.
Das Team um Peter-Pascal Meik Manager Digital Innovation & Projects bei Toyota Deutschland hat in den letzten 4 Jahren die Gesamtarchitektur IT mit modernsten Technologien nachhaltig automatisiert und zukunftsweisend digitalisiert aufgestellt.
Weitere Informationen zu dieser Case Study folgen.
An Dang hat nach seinem Masterstudium in Wirtschaftsinformatik an der Hochschule der Medien in Stuttgart 2020 das Data-Science-Traineeprogramm bei der INFOMOTION angefangen. Nach erfolgreichem Abschluss konzentriert er sich auf die Umsetzung von Advanced Analytics Use Cases für Kunden und begleitet diese bis hin zur Industrialisierung. Außerdem bildet er neue Trainees und interne Mitarbeiter aus.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/an-dang/
Automatisierungsplattformen werden zunehmend metadatengesteuert und nutzen Metadaten, um Datenmanagementprozesse zu orchestrieren und zu automatisieren. Automatisierungstools können Aufgaben wie Datenintegration, -umwandlung und -verwaltung intelligent automatisieren, indem sie Metadaten nutzen, um die Struktur, Beziehungen und Herkunft von Datenbeständen zu verstehen.
VaultSpeed ist ein Pionier in dieser Entwicklung. Wir bieten das einzige Automatisierungstool, das das Geschäftsverständnis mit Metadaten aus allen Quellen kombiniert, um ein umfassendes unternehmensweites Datenmodell vorzuschlagen und die Transformation und Integration von Daten zur Befüllung dieses Modells zu automatisieren. Die zugrunde liegende Magie liegt in unseren integrierten Integrationstemplates, die ETL- und DDL-Anweisungen für verschiedene Quellen und Technologien generieren und 2220 einzigartige Kombinationen umfassen.
VaultSpeed setzt sich auch für die Möglichkeit ein, dass Dateningenieure benutzerdefinierte Geschäftslogikautomatisierungen, wie z.B. KPIs, programmieren und diese auf alle Datenpräsentationen in der Informationsschicht anwenden können.
Wir freuen uns, Ihnen einen Einblick in unsere neuesten Fortschritte in der automatisierten Datenumwandlung zu geben. Unser Team konzentriert sich derzeit darauf, Funktionen zu erstellen und zu testen, die es den Benutzern erleichtern, maßgeschneiderte Datenumwandlungen sowohl upstream als auch downstream durchzuführen.
Wir arbeiten intensiv an einer intuitiven, grafischen Drag-and-Drop-Oberfläche, die den Zugang zur Datenautomatisierung für jedes Datenteam erleichtern wird. Dies wird ihnen ermöglichen, Konsistenz in der gesamten Organisation in Übereinstimmung mit ihren Geschäftszielen und Datenverwaltungsrichtlinien zu gewährleisten.
Jonas De Keuster ist VP Product Marketing bei VaultSpeed. Bevor er zum Unternehmen kam, verfügte er über fast zehn Jahre Erfahrung als DWH-Berater in verschiedenen Branchen wie Banken, Versicherungen, Gesundheitswesen und Personaldienstleistungen. Dieser Hintergrund ermöglicht es ihm, dabei zu helfen, aktuelle Kundenbedürfnisse zu verstehen und Gespräche mit Vertretern der Datenbranche zu führen.
--------------------------
Jonas De Keuster is VP Product Marketing at VaultSpeed. He had close to 10 years of experience as a DWH consultant in various industries like banking, insurance, healthcare, and HR services, before joining the company. This background allows him to help understand current customer needs and engage in conversations with members of the data industry.
In einem spannenden Impulsvortrag erzählt der KI-Manager Gabriel, wie er überraschend mit Fragen zur Funktionsweise der KI von seinem Chef und den Mitarbeitern konfrontiert wird. Trotz der unerwarteten Herausforderung hat Gabriel eine Methode entwickelt, um alle Fragen systematisch zu beantworten. Sein System basiert auf einer festen, gut durchdachten Grundlage, die es ihm ermöglicht, komplexe KI-Konzepte einfach zu erklären. Durch diese Geschichte wird nicht nur die Funktionsweise von KI verdeutlicht, sondern auch, wie wichtig eine strukturierte Herangehensweise in der Kommunikation ist.
Dilyana Bossenz ist Trainerin für Data & AI Literacy bei BI or DIE. Sie ist Dozentin für Datenvisualisierung an der Digital Business University in Berlin.
Sie verfügt über mehrjährige Erfahrung als BI-Beraterin bei Good Healthcare Group GmbH, Ceteris AG und M2.technology & project consulting GmbH. Gleichzeitig war sie bei M2 in leitender Position als Enablement Managerin tätig. Ihre Aufgabe war es, dafür zu sorgen, dass sowohl Kunden als auch Mitarbeiter:innen den richtigen Umgang mit Daten erlernen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/dilyana-bossenz/
Digital transformation has been a key focus for companies aiming to maintain their competitive edge. With the EU AI Act, companies must adopt measures to comply with the EU AI framework. But what should your roadmap look like on this journey? What is your current maturity level? In this presentation, Yaprak will engage your attention by first debunking the AI phenomenon and then highlighting the critical factors for a successful AI governance strategy in your digital transformation journey. We will reference semantic data fabric, knowledge graphs, data catalogs, and large language models (LLMs) as integral components AI. The presentation will be supported by field use-cases, emphasizing the dependencies and key considerations for implementation.
As the Data Governance Lead for the DACH region at Billigence, Yaprak Has brings a wealth of experience in data management and governance. She held various roles where she focused on data analytics, data management, data quality management and application consulting. Her expertise includes collaborating with clients to develop IT strategies, supporting software development projects, managing global data stewardship, and leading IT process optimizations. She has applied her skills across diverse use cases in the fields of mergers & acquisitions, cartels, automotive, FMCG, telecommunications, railways, wholesale, and life sciences. She has a background in geoinformatics, policy analysis and economics.
In today's data-driven landscape, data strategy is paramount for driving innovation and maintaining competitive advantage. This presentation delves into Telefonica's data strategy, where we will cover the pivotal themes of data strategy, data leadership, and trusted data for critical data initiatives. This session will cover:
- How Telefonica is fostering a culture of data-driven decision-making through their data strategy, including challenges they have faced, what they have achieved, and actionable learnings from their journey
- The role of data leadership in aligning data initiatives to business outcomes and measuring the value to your organization
- Advice on getting started with data governance, and how to operationalise your data governance strategy
- Real life example of how Telefonica is utilizing analytics to optimize energy consumption and reduce operational costs, supporting sustainability and ESG reporting
Marius brings close to 10 years of experience as a consultant, solution engineer, architect, and project manager with a focus on data, artificial intelligence, and advanced analytics across various industries. Moreover, his extensive background includes significant research and publications on human-AI collaboration. Recently, he joined Telefónica Germany as a Data & AI manager , where he currently serves as the Data Governance Lead for one of the largest transformation programs within the company.
Alle, die für eine saubere Data Governance in ihrer Organisation kämpfen, kennen diese Situation: Du sitzt bei einem:r Entscheider:in und versuchst für einen weiteren Entwicklungsschritt Deines Data Governance-Projekts zu werben – und die erste Reaktion lautet: "Bringt Data Governance überhaupt etwas? Ist das nicht nur noch mehr Bürokratie, mit der wir unsere Mitarbeiter:innen quälen? Rechnen sich diese Ausgaben eigentlich irgendwann?" Du versuchst eine stringente und solide Argumentation, fast einen eigenen Business-Case, aufzubauen und findest kaum belastbare Untersuchungsergebnisse und Studien.
dataspot. hat das geändert und gemeinsam mit FH-Prof. Dr. Peter Grabner von der FH Campus Wien eine quantitative Untersuchung durchgeführt. Das Ziel war, genau diese belastbaren Untersuchungsergebnisse zu den "Rahmenbedingungen und Anwendungen von Data Excellence" zu bekommen, die wir hier präsentieren werden.
Michaela Mader ist Co-Founderin und Geschäftsführerin der dataspot. gmbh. Jahrelange Beratungserfahrung – u.a. bei IBM in Deutschland und Österreich - in Analytics- und BI-Projekten führte zur Expertise in der Erarbeitung von Datenstrategien, Data Governance Konzepten und Metadatenmanagement. Sie absolvierte ein wirtschaftswissenschaftliches Diplomstudium mit Schwerpunkt IT an der Linzer JKU und startete ihre Karriere als Controllerin.
Datenqualität ist essenziell für die Qualität sämtlicher datenbasierten Produkte. Doch wie kann man das komplexe Monstrum Datenqualität bändigen? In diesem „Mitmach“-Workshop zeigen wir Euch, wie Ihr systematisch und unkompliziert Datenqualität messbar macht und auch dafür sorgt, dass die Datenqualität Schritt für Schritt nachhaltig verbessert wird. Und das Beste: Ihr dürft alle aktiv mitmachen. Lasst Euch überraschen!
Für die Teilnahme wird ein eigener Laptop benötigt.
Dr. Christian Fürber ist promovierter Datenqualitätsexperte und Geschäftsführer der Information Quality Institute GmbH (iqinstitute.de), einem spezialisierten Beratungsunternehmen für Data Excellence und Data Management Lösungen. Vor der Gründung von IQI im Jahr 2012 war er in verschiedenen Positionen im Datenmanagement tätig. Unter anderem etablierter er für die Bundeswehr eine der ersten Data Governance Organisationen und führte dort ein standardisiertes Datenqualitätsmanagement ein. Christian und sein Team haben unzählige Datenprojekte und -strategien für bekannte Unternehmen verschiedener Branchen erfolgreich umgesetzt und ihnen dabei geholfen, erheblichen Mehrwert aus ihren Daten zu ziehen. Neben seiner Tätigkeit bei IQI ist Christian auch Autor und Redner auf Konferenzen (u.a. am MIT) und organisiert den TDWI Themenzirkel "Data Strategy & Data Governance".
Leandro ist Senior Data Engineer bei der der Information Quality Institute GmbH (iqinstitute.de). Er ist ausgewiesener Experte für Datenanalysen, Datenplattformen und der Integration und Umsetzung von Data Management Funktionen. Für IQI hat er diverse Datenplattformen großer Organisationen aufgebaut und dort das Datenqualitätsmanagement standardisiert und operationalisiert. Vor seiner Tätigkeit für IQI war Leandro als Data Engineer für MediaMarktSaturn tätig.
„Ich habe das Unbekannte umarmt und es ist mein Freund geworden“
Anselm Pahnke ist Geophysiker, Extremabenteurer und Kameramann zugleich. Der Hamburger fuhr drei Jahre lang mit dem Fahrrad um die Welt – allein. Die allermeisten Stunden und Tage verbrachte er dabei nur mit sich selbst. Bei seiner Reise durch Afrikas Wüsten erlebte er immer wieder Extremsituationen, sah sich mit seinen tiefsten Ängsten konfrontiert und entdeckte zugleich, welche Stärken in ihm stecken. Die unzähligen Kilometer auf dem Fahrrad waren nicht nur eine Reise durch Afrika, sie waren auch eine große Lernreise für ihn selbst. Aus Angst und Unsicherheit entwickelte sich eine vertrauensvolle Wachsamkeit und die Zuversicht, das nächste Ziel zu erreichen.
Aus den persönlichen Aufnahmen von Anselm Pahnke entsteht nach seiner Rückkehr ein Kinofilm, produziert mit kleinem Budget und ausgestrahlt bei Netflix. Aus einer kleinen Idee mit einer kleinen Kamera ist eine große Geschichte und der erfolgreichste deutsche Dokumentarfilm der letzten Jahre entstanden. Beim Zuschauen wird schnell deutlich: Es geht nicht ums Ankommen, sondern um den Weg dorthin. Wer sich auf ungewisses Terrain wagt, bekommt die Chance, viel Neues zu entdecken, sich selbst besser kennenzulernen, persönlich zu wachsen und mit dem Ungewissen umzugehen.
Präsentiert von OPITZ CONSULTING Deutschland
Hallo Welt
Ich bin Anselm. Geophysiker und Ozeanograf, Buchautor, Keynote-Speaker, preisgekrönter Dokumentarfilmer, Kleinstadt-Gründer, Erbauer von Tiny Houses und Extremabenteurer aus Leidenschaft.
Nach einem Freiwilligen Sozialen Jahr in Kanada studierte ich Ozeanografie und Geophysik an der Universität Hamburg. Einen Tag nach meinem Bachelorabschluss begann ich eine Fahrradreise, die mich auf 40.000 km durch 40 Länder führte. Aus dem Impuls, ein paar Wochen zu reisen, wurden drei Jahre, und die Welt wurde mein Zuhause.
Genieße kühle Drinks und kleine Snacks, während du wertvolle Kontakte knüpfst und den ersten Messetag Revue passieren lässt!
Wie strukturiert und baut man einen Data Catalog from the scratch?
Warum macht eine Unterscheidung von fachlichen, technischen und organisatorischen Metadaten Sinn?
Welche Skills brauchen die Fachexpert:innen dazu?
Diese und weitere Fragen klären wir mit einem durchgängigen Fallbeispiel, das alle Teilnehmer:innen mit einem eigenen User direkt in der Software umsetzen können.
Barbara Kainz ist Geschäftsführerin der dataspot. gmbh. Sie ist Expertin für Data Governance, fachliche Datenmodellierung & Datenqualitätsmanagement. Ihre Expertise in Metadatenmanagement begründet sich auf jahrelanger Beratungserfahrung u. a. als Smarter Analytics Leaderin in der IBM. Sie hält ein Diplom in IT & Organisation und ist systemisch-analytischer Coach.
Katharina Menz ist Business Consultant bei dataspot. und Expertin für Data Governance und Fachliche Datenmodellierung. Insbesondere hat sie Erfahrung im Bereich High-Level Datenmodellierung, Referenzdatenmanagement und Kennzahlenmodellierung. Besonderen Wert legt sie auf die Unterstützung ihrer Kund:innen beim Schneiden von Datendomänen und Datenverantwortung für das Erstellen einer Datenlandkarte, um einen Überblick und ein Verständnis über zentrale Unternehmensdaten zu gewinnen.
Lisa Müller ist Managerin bei der Firma dataspot. Fachliche Datenmodellierung, Datenqualitätsmanagement und Metadatendatenmanagement zählen zu ihren Beratungsschwerpunkten. Aufgrund jahrelanger Projekterfahrung – unter anderem in Banking – konnte sie Data Governance relevantes Domänen-Wissen aufbauen. In Projekten erarbeitet sie kundenindividuelle Lösungen an der Schnittstelle zwischen Fachbereich und Technik.
Vortrag Teilen
Herzlich willkommen zum Special Day von INFOMOTION – The Data Performance Company! Freuen Sie sich auf acht spannende Sessions rund um die Zukunft der Daten – Von revolutionären Technologien wie GenAI bis hin zur Gewährleistung der Datensicherheit in einer zunehmend vernetzten Welt. Unsere Experten begrüßen Sie an unserem Stand und stehen Ihnen für einen Austausch gerne zur Verfügung.
20 Jahre Erfahrung in der IT- und Versicherungsbranche, wo ich Unternehmen zu Innovation und Wachstum verholfen habe. Ich begann als Software-Ingenieur in der Versicherungsbranche, wurde dann Cloud-Architekt und bin jetzt ein vertrauenswürdiger Berater für die digitale Transformation in der Versicherungsbranche und ein Mentor für kontemplative Psychologie. Meine Leidenschaft gilt dem Einsatz von Technologie zur Verbesserung der Versicherungsbranche. Ich bin immer auf der Suche nach neuen Wegen, wie man Technologie nutzen kann, um Versicherungen effizienter, effektiver und kundenorientierter zu machen.
Dieser Vortrag widmet sich einer Best-Practice-Architektur für die Implementierung von Retrieval-Augmented Generation (RAG) in Large Language Models (LLMs), gestützt auf diverse Services der Google Cloud. Wir zeigen die zentralen Herausforderungen bei der Implementierung dieser Technologien und skizzieren praxisnahe Anwendungsfälle, um das Potenzial von RAG-Architekturen für LLMs zu veranschaulichen. Außerdem geben wir einen Ausblick auf die Operationalisierung durch LLMOps, wobei wir innovative Konzepte und Strategien für einen effizienten und zuverlässigen Betrieb in der Google Cloud-Umgebung diskutieren. Ziel des Vortrags ist es, den Teilnehmenden nicht nur Einblicke in die technische Umsetzung zu bieten, sondern auch aufzuzeigen, wie sie diese Technologien effektiv in ihre eigenen Projekte integrieren können.
Voraussetzungen: Keine
An Dang hat nach seinem Masterstudium in Wirtschaftsinformatik an der Hochschule der Medien in Stuttgart 2020 das Data-Science-Traineeprogramm bei der INFOMOTION angefangen. Nach erfolgreichem Abschluss konzentriert er sich auf die Umsetzung von Advanced Analytics Use Cases für Kunden und begleitet diese bis hin zur Industrialisierung. Außerdem bildet er neue Trainees und interne Mitarbeiter aus.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/an-dang/
Usame Suud durchlief das Cloud-Traineeprogramm bei der INFOMOTION nach seinem Masterstudium in Angewandter Mathematik an der University of New Mexico. Als Google-zertifizierter Data Engineer widmet er sich seit einem Jahr der Realisierung von Data Engineering und Data Science Projekten für Kunden in der Google Cloud.
This talk introduces the basics of Generative AI (GenAI) capabilities in Snowflake's Data Cloud, showing how it can improve how we interact with data. We will cover three practical examples through live demos: First, using Snowflake Copilot, we'll see how to chat with data in natural language. Next, we'll look at how integrating Hugging Face models with Snowflake's Model Registry can expand its capabilities. Lastly, we will demonstrate building advanced chatbots that can search and use information from documents. This session will provide useful insights into using GenAI to revolutionize data tasks with Snowflake.
Michael Gorkow ist Field CTO und Mitglied des ML EMEA Teams bei Snowflake. Er unterstützt Interessenten und Kunden mit innovativen Ansätzen, um modernste Entwicklungen im Machine Learning mit den Zielen von Organisationen in Einklang zu bringen.
Kunden, Investoren und Analysten erwarten, dass entlang der gesamten Wertschöpfungskette nachhaltig agiert wird. Das Verständnis der Inhalte für mögliche technologische Wirkweisen und die veränderte Risikolandschaft mit Blick auf Chancen und Risiken digitaler Technologien rücken in den Vordergrund. Vertrauen, Verantwortung, Transparenz und Exzellenz sind Erfolgsfaktoren. Integration dieser Aspekte, haben langfristig positiven auf das Geschäftsmodell und finanziellen Erfolg. KI-Governance, ein methodologisch erweitertes Risiko Management sowie KI-Ethik Reifegrad Bestimmung ermöglichen, künftige und vorhandene Maßnahmen zu verstehen, zu priorisieren und auf den Kontext auszurichten.
Manuela Mackert ist langjährige Chief Compliance Officier bzw. Business Executive mit umfassender Erfahrung in der ICT Industrie.
Unter anderem hat sie sich als Vordenkerin im Bereich der digitalen Ethik seit 2017 mit künstlicher Intelligenz (KI) und den damit verbundenen ethischen Notwendigkeiten auseinandergesetzt. Sie war Initiator der Digital Ethics Initative Deutsche Telekom Group: mit einem multidisziplinären Expertenteam in enger Zusammenarbeit mit den Business Verantwortlichen hat sie die KI-Richtlinien der Deutschen Telekom entwickelt, sie operativ umgesetzt und ein internes und externes KI-Ethik-Ökosystem aufgebaut. Fokus war die Gestaltung und erfolgreiche Umsetzung der unternehmerischen Digital-Verantwortung (KI-Governance & Vorbereitung auf die Anforderungen der KI-Regulierung bei kritischer Infrastruktur).
Manuela Mackert ist Wegbereiterin für neue, innovative Geschäftsmodelle und erkennbare Erfolge bei der digitalen Verantwortung hinsichtlich KI.
Zur Zeit ist Manuela als Berater des Top-Managements in einer komplexen und sich ständig verändernden globalen Landschaft und einem beispiellosen Risikoumfeld tätig. Sie verfügt über nachweisliche Erfahrung in der Entwicklung und Führung interdisziplinärer Teams, um deren Potenzial für Innovation, Wandel, beschleunigtes Wachstum und Wertschöpfung freizusetzen.
Du möchtest den Arbeitskreis der Business Intelligence und Analytics Verantwortlichen persönlich kennenlernen?
- Du siehst Dich als erfahrenen Teil der Business Intelligence und Analytics Community?
- Du bist in leitender Funktion des Business Intelligence/Analytics Teams einer Beratungsfirma?
- Du interessierst Dich für den Dialog mit gleichgesinnten, über den Markt, Herausforderungen und auch für gute Kontakte für ein stabiles Netzwerk?
Dann komm zu uns! Hier stellt sich der Arbeitskreis vor!
Claudia Koschtial ist geschäftsführende Gesellschafterin der Marmeladenbaum GmbH sowie erfahrende Lehrbeauftrage an der BTU Cottbus, der FH Berlin und der TU BA Freiberg. Ihre Themenschwerpunkte sind Business Intelligence, Advanced Analytics und Data Science und sind durch langjährige Projekterfahrung, Publikationen und Referenzen belegt.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/claudia-koschtial/
Klaus-Dieter Schulze, Mitgründer und Vorstandsmitglied des TDWI e.V., hat seit über 20 Jahren verantwortliche Positionen im Data & Analytics-Umfeld bei verschiedenen Beratungshäusern inne. Seit Juli 2022 ist er Geschäftsführer bei b.telligent. Er beschäftigt sich auf Basis seines betriebswirtschaftlichen Studiums bereits seit 1994 intensiv mit Data & Analytics. Er hat verschiedene Fachartikel und Buchbeiträge veröffentlicht und referiert regelmäßig bei Fachveranstaltungen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/klaus-dieter-schulze/
Beweise Dein IT-Knowhow und gewinne tolle Preise in diesem unterhaltsamen Quiz nach Art von „Wer wird Millionär“. Doch Vorsicht: Die Fragen sind kniffelig und raffiniert gestellt. Unglaubliche Geschichten, historische Rekorde, aktuelle Technologietrends, usw… Spiele live mit dem eigenen Smartphone kostenfrei gegen andere Teilnehmer und lasse dich von mir nicht in die Irre führen. Richtiges „um-die-Ecke-Denken“ garantiert staunen und lachen…
Bei der arelium GmbH arbeitet der Wirtschaftsinformatiker als Projektleiter, SCRUM-Master oder T-SQL-Spezialist bei der Umsetzung komplexer DB-Projekte. Seit 2003 beschäftigt Torsten Ahlemeyer sich beruflich mit DB-Optimierungsaufgaben sowie ungewöhnlichen T-SQL-Queries. Auch SSAS, SSIS, SSRS, die Migration nach Azure und natürlich auch Power BI sind in seinem Fokus. Daneben gibt der Autor von Fachbeiträgen sein Wissen auch in Schulungen, Workshops und auf IT-Konferenzen weiter.
FINMA Circular 2023/01, which comes into force on January 1, 2024, requires banks to define, identify and monitor the data elements that are considered critical for the successful and sustainable provision of the institution's services or for regulatory purposes. In this presentation the CDO of Banca Stato will outline how the bank as utilized Collibra to build an effective data governance framework and achieved following benefits:
- Improved data quality
- Increased data security
- Enhanced regulatory compliance
- Improved business agility
Steffen Wax is a customer-focussed software sales leader with 20+ years of experience in working with large enterprises to get the most business value out of their data management and business analytics investments.
Experienced Business Data & Enterprise Architecture with a demonstrated history of working in the financial services industry. Strong engineering professional skilled in Business Process Design, Requirements Analysis, and Banking.
Medien sind ein Spiegel unserer Zeit und das Gedächtnis unserer Gesellschaft. Wer Zugang zu ihren Inhalten hat, sie auswerten kann und richtig einzusetzen weiß, hält ein mächtiges Werkzeug in Händen. Das Fraunhofer IAIS entwickelt und nutzt LLM und KI in verschiedenen Projekten. Werfen Sie gemeinsam mit uns einen Blick in die nahe Zukunft unserer Arbeitswelt.
Ralf Hennemann verantwortet seit über 20 Jahren den Bereich Marketing & Sales bei GBI-Genios, dem Marktführer für Wirtschaftsinformationen in Deutschland. Mit seiner Expertise unterstützt er Unternehmen bei der Umsetzung verschiedenster Informations- und Analyseprojekte und greift dabei auf eines der größten verfügbaren Medien- und Datenportfolios renommierter Qualitätsanbieter zu.
Jens Fisseler entwickelt mit seinem Team am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS Plattformen für Künstlicher Intelligenz. Dabei setzt er auf seine langjährige Erfahrung in der Entwicklung und im Entwurf von Softwaresystemen, um neueste KI-Technologien einfach zugänglich und nutzbar zu machen.
Andre Dörr präsentiert in seinem Vortrag die Evolution seines Hobbys BeatTheBookie zu einem kostengünstigen Geschäftsmodell. Als Data Engineer bei Areto Consulting GmbH zeigt er, wie schlanke Lakehouse-Architekturen dabei helfen, einen vollständigen Business Case umzusetzen. Mit einem Fokus auf Kosteneffizienz demonstriert er, wie diese Architekturen die Herausforderungen der Sportwettenindustrie bewältigen und eine effiziente Datenverarbeitung ermöglichen.
Andre Dörr ist Data Engineer bei areto consulting GmbH. Mit mehr als 12 Jahren Erfahrung im BI-Umfeld und unterschiedlichsten Branchen ist er ein führender Data-Warehouse-Architekt bei der areto consulting GmbH. Er ist Sprecher auf Konferenzen und Autor des auf Sportwetten fokussierten Data Science Blogs beatthebookie.blog.
WashTec AG, Weltmarkt- und Innovationsführer im Bereich der Autowaschtechnik, ist auf dem kontinuierlichen Weg zum datengetriebenen Unternehmen. Im Zuge der Digitalisierung werden mit Data Analytics den Waschanlagenbetreibern und Service-Technikern erste Ansätze für ein Predictive Maintenance der Waschanlagen geboten, welche Downtimes vermeidet sowie einen noch effizienteren Betrieb gewährleistet. Mit Anlauf zur digitalen Plattform: Umsetzung von Data Analytics Use Cases bei Autowaschindustrie für den Waschanlagenbetreiber, Engineering und Service, und Data-insights bei angebunden Waschanlagen.
Diana Scheidt arbeitet seit 2 Jahren bei WashTec in Augsburg als Spezialistin für Data Management & Data Analytics im Engineering Bereich. Sie hatte die Möglichkeit die Data Analytics Domäne komplett von Grund auf aufzubauen. Die Erfahrungen, die sie vor einigen Jahren in verschiedenen Positionen sowohl in Startups als auch in Großkonzernen, wie Kuka und Airbus gesammelt hat waren sehr hilfreich, um in einem kleinen Team schnell erste Ergebnisse zu erzielen. Gemeinsam mit den externen Kollegen von Fraunhofer FIT konnte sie in kürzester Zeit die ersten Use Cases für Data Analytics im Unternehmen als Teil der Digitalen Plattform umsetzen. Aktuell arbeitet sie an der Umsetzung von den Machine Learning Use Cases für die digitale Plattform. Ihre Datenbegeisterung kommt ursprünglich vom Studium, erst vom Computer Science Bachelorstudium an der Universität in Kyiv und danach vom Masterstudium an der Universität Augsburg im Bereich Informatik und Informationswirtschaft.
Weitere Informationen zu dieser Case Study folgen.
Abstract
Technologische Alternativen und best practice für Data Lakehouse-Aufbau: Der Vortrag beleuchtet die Herausforderungen bei der Definition einer modernen Datenarchitektur mit Data Lakehouse-Ansatz aus der Praxis. Der Ansatz lässt in der Theorie noch einige Fragen offen. Für IT und Fachbereiche steht ein Paradigmenwechsel an, low-code- und no-code- Lösungen werden genauso wie SQL in Frage gestellt. Was führt letztlich zum Erfolg, was treibt die Kosten und was ist zu beachten? Akademischer Ansatz versus best practice.
Extended Abstract
Dieser Vortrag beleuchtet aus der Praxis aktueller Implementierungen die Herausforderungen bei der Definition einer modernen Datenarchitektur mit Data Lakehouse-Ansatz. Der durch Skalierbarkeit und Flexibilität und durch die Kostenbetrachtung getriebene Trend zu modernen Data Lakehouse Architekturmodellen lässt in der Theorie noch einige Fragen offen. Für IT und Fachbereiche steht ein Paradigmenwechsel an, low-code- und no-code- Lösungen im Data Lakehouse werden genauso wie SQL in Frage gestellt. Welcher potentielle Nutzen steht dem entgegen? Was ist hier best practice und wie führt man ein solches Projekt letztlich zum Erfolg? Ist Microsoft Fabric hier die passende Lösung? Welche technologischen Alternativen bestehen? Eine Gegenüberstellung der akademischen Ansätze mit der Implementierungspraxis.
Mit einem Hintergrund in Finance und Controlling ist Oliver Stock als ehemaliger Head of BI im E-Commerce seit 2014 als Architekt, Technologie-Experte, Implementierer und Projektleiter bei DATA MART Consulting als Principal Consultant in den Bereichen Data Warehouse, Date Lakehouse und Analytischen Datenplattformen für Kunden unter anderem aus den Branchen E-Commerce, Gesundheitswesen oder auch Industrie unterwegs.
In dieser Funktion begleitet er seit vielen Jahren Projekte vom klassischen Data Warehouse bis zu modernen analytische Datenplattformen mit Data Lakehouse-Architektur sowohl in der Architekturdefinition und fachlicher /technischer Konzeption als auch in der Implementierung vom Data Engineering bis zum BI-Frontend.
Lukas Gomber unterstützt seit 7 Jahren als Berater Kunden dabei ihre analytischen Fragestellungen auf der passenden Plattform selbst zu beantworten. In den letzten Jahren hieß das vor allem der Aufbau analytischer Datenplattformen in verschiedenen Cloud-Umgebungen. Zunächst als Statistiker und Marketinganalyst und seit 2019 als Senior Consultant bei DATA MART, hat sich ein Fokus für Handelsunternehmen und deren schnell wachsende Datenbedürfnisse entwickelt.
Viele Unternehmen stehen unter dem Druck, generative KI so bald wie möglich zu implementieren, doch nicht für jeden sind die Risiken klar erkennbar. Neue Forschungsergebnisse von Actian zeigen, dass fast 80 % der Befragten der Meinung sind, ihre Datenqualität sei für diese Aufgabe ausreichend. Doch eine echte Datenvorbereitung benötigt mehr Einsatz, als viele Unternehmen annehmen.
Wie können Sie die Stolpersteine der Datenvorbereitung umgehen, die ein generatives KI-Projekt zum Scheitern bringen könnten? Wie können Sie zügig und doch zuversichtlich in die Ära der generativen KI eintreten? Ricardo Fuentes und Paul Micke werden Forschungsergebnisse und Kundenperspektiven teilen, um echte Datenbereitschaft zu erläutern und Wege aufzuzeigen, wie Sie Ihre Reise mit der generativen KI optimieren können.
Ricardo Fuentes ist ein erfahrener Experte mit über einem Jahrzehnt Erfahrung in den Bereichen Enterprise Sales Engineering und Lösungsarchitektur. Derzeit ist er als Enterprise Sales Engineer bei Actian tätig und verfügt über ein ausgeprägtes Gespür für die Bedürfnisse der Kunden und liefert ihnen maßgeschneiderte Lösungen, die ihren vielfältigen Anforderungen gerecht werden. Seine strategische Unterstützung im Pre-Sales-Bereich und seine Erfolgsbilanz bei der Bewältigung technischer Herausforderungen haben wesentlich zum Erfolg und Wachstum der Kunden beigetragen. Frühere Positionen bei Amdocs, Actix GmbH, Seapine Software Europe GmbH und Nokia Siemens Networks GmbH haben seine außergewöhnlichen Fähigkeiten zur Präsentation, Kommunikation und analytischem Denken geschärft. Mit fundierten Kenntnissen in SQL, Datenbanken und Cloud Computing versteht es Ricardo Geschäftszielen und technischer Exzellenz erfolgreich zu vereinen.
Paul Micke ist Customer Success Manager bei Actian, einem Geschäftsbereich von HCLSoftware, und betreut die DACH- und nordischen Regionen. Er verfügt über umfangreiche Erfahrungen im Bereich Software-Architektur, insbesondere im Management von Datenbanksystemen auf eigener Hardware und in der Cloud. Paul trägt zur Weiterentwicklung der Actian Data Platform bei. Er ist ein zertifizierter Google Data Engineer und ist auch mit AWS und Azure vertraut. Sein tiefgreifendes Verständnis von Datenmanagementsystemen und seine Rolle im Customer Success ermöglichen es ihm, gezielte Beratung und effektive, auf die Kundenbedürfnisse zugeschnittene Schulungen anzubieten.
- Schlüsselanforderungen für Unternehmen entlang des KI-Lebenszyklus
- Möglichkeiten zur Durchsetzung von Compliance und Governance für komplexe Entscheidungsstrecken
- Ganzheitliche Sicht für vertrauenswürdige KI: Von den Daten bis zur Entscheidung
Dr. Andreas Becks berät als Strategic Advisor bei Ab Initio Kunden rund um die Themen Automatisierung datengetriebener Entscheidungen, Datendemokratisierung und AI Governance. Seit mehr als 25 Jahren ist sein Herzensthema der kulturelle Wandel durch Daten, Informationsvisualisierung und Künstliche Intelligenz. Andreas Becks war in verschiedenen leitenden Positionen in der Kundenberatung bei Softwareunternehmen, als Business- und Lösungsarchitekt sowie im strategischen Produktmanagement und in Forschung und Entwicklung tätig. Er ist studierter Diplom-Informatiker, promovierte in Künstlicher Intelligenz an der Technischen Universität Aachen und erwarb einen MBA an der Universität St. Gallen.
Die Nutzung generative KI (GenAI) kann die Transformation zum datengetriebenen Unternehmen erheblich beschleunigen. Dabei müssen neben den Potentialen auch die Besonderheiten und Randbedingungen bei der Verwendung von GenAI berücksichtigt werden, kurz: Die optimale Nutzung von GenAI im Unternehmen muss in der Data & Analytics-Strategie abgebildet sein. Im Vortrag werden aktuelle technische Entwicklungen, AI-Use-Cases sowie externe Rahmenbedingungen dargestellt und ihre Auswirkungen auf die Data & Analytics Strategie erläutert.
Voraussetzungen: Grundkenntnisse in Data & Analytics, Generative AI
Schwierigkeitsgrad: Advanced
Dr. Johannes Wenzel ist Principal Consultant im Bereich Data & Analytics bei der Infomotion. Er ist seit mehr als 20 Jahren als Architekt und Projektleiter von Big Data Projekten tätig. Neben tiefgehender Erfahrung auf verschiedenen Feldern der Datenanalyse und Visualisierung hat er auch langjährige Erfahrung in Bezug auf die Handhabung von rechtlichen und regulatorischen Anforderungen. Seine jetziger Tätigkeitsschwerpunkt ist die Beratung zur Data & Analytics Strategie.
In diesem Hands-On Workshop erhalten Sie eigenen Zugang zu den Kursmaterialien sowie einer geteilten SAP Datasphere Umgebung. Mit der Hilfe von SAP-Mentoren werden Sie durch die Kursmaterialien geleitet und führen die Übungen durch um erste, eigene, Erfahrungen mit der SAP Datasphere zu sammeln. Inhaltlich werden wir uns dem Thema Data Modeling, unter Zuhilfenahme des Data Layers und des Analytical Model, sowie dem Thema Data Governance, unter Zuhilfenahme des Data Catalog, widmen.
Sebastian Wiefett ist Data Management Expert für SAP Data Warehousing mit Hauptexpertise für die Produkte SAP Business Warehouse (SAP BW/4HANA) und SAP Datasphere. Sebastian ist spezialisiert auf SAP BW/4HANA, SAP Datasphere sowie moderne Analytics Architekturen auf den verschiedenen Hyperscalern.
Bevor Sebastian Wiefett im Jahre 2020 in das deutsche Customer Advisory Team wechselte, war er zwölf Jahre in der SAP-Beratung tätig, wo es Teil seiner Aufgabe war, BW basierte Datawarehousing Architekturen zu implementieren.
Gordon Witzel startete im Jahr 2007 bei der SAP als BW-Berater. Hier unterstütze er internationale Kunden bei der Architektur und Implementierungen von SAP BW und SAP BWA.
2015 wechselte er in das SAP Data Warehouse Produktmanagement der SAP SE und hat hier basierend auf Anforderungen der Kunden mit der Entwicklung neue Features definiert, priorisiert und zur Umsetzung gebracht. Bei diversen nationalen und internationalen Events präsentiert Gordon zu den Themen SAP BW und SAP Data Warehouse Cloud und stellt die SAP Data Warehouse Produkte in Hands-On Workshops vor.
Weiterhin unterstütze er bei Definition der SAP Data Warehouse Strategie und begleitete die erfolgreiche Einführung der SAP BW bridge als Teil der SAP Data Warehouse Cloud im Jahr 2021. Seit 2022 ist Gordon Principal Presales Expert für das Data Warehouse Portfolio der SAP.
Im Zuge der Entwicklung neuer digitaler Lösungen im Bankengeschäft werden jeden Tag große Datenmengen erzeugt. Die Analyse dieser Daten unterstützt maßgeblich dabei, die Prozessabläufe in Sparkassen effizienter zu gestalten und kundenindividuelle Bedürfnisse zu verstehen.
Dazu werden Daten von Kundenreisen durch die Implementierung standardisierter Messpunkte in Prozessen ausgewertet und den Sparkassen zur Verfügung gestellt, um einen Einblick in die Prozessabläufe zu gewinnen und eine Vergleichbarkeit der Prozesse zu ermöglichen.
Die präzise Analyse der Prozesse mittels Process Mining schafft Transparenz und ist die Grundlage für die kundenzentrierte Weiterentwicklung. Im Rahmen dieses Vortrags werden praxisnahe Einblicke in die datengetriebene Prozessanalyse der Sparkassen Finanzgruppe gegeben.
Agenda
- Überblick
- Prozessanalyse in Customer Journeys
- Detailanalysen im Process Mining
- Fazit
Zielpublikum: Datenanalyst:innen, Entscheidungsfinder:innen
Voraussetzungen: Grundkenntnisse
Schwierigkeitsgrad: Basic
Nach seiner Promotion in 2017 hat Dr. Florian Bergmann bei synvert saracus seine Tätigkeit aufgenommen. Er arbeitet dort als Senior Lead Consultant und war bereits für diverse Kunden tätig. Seit Ende 2023 ist er bei der Finanz Informatik Projektmanager und Arbeitspaketleiter in der Vertriebssteuerung im Bereich Data & Analytics. Dort sind seine Schwerpunkte die Teamleitung und Projektleitung von diversen Projekten zur Bereitstellung von KPIs im OSPlus Kontext.
Sophie-Theresa Kleinke ist Mathematikerin mit einem Fokus auf Data Science. Bei der Finanz Informatik (FI), dem zentralen IT-Dienstleister der Sparkassen, liegt ihr Schwerpunkt auf der Analyse und Optimierung von Geschäftsprozessen, im Speziellen im Bereich Process Mining, wo sie von der Datenaufbereitung im Backend mit SQL bis zur Visualisierung im Frontend mit einem gängigen BI-Tool tätig ist.
Vortrag Teilen
The landscape of Data Warehousing (DWH) is evolving, influenced by pivotal trends in GenAI and Data Products/Data Mesh. At Databricks, we believe that AI is a catalyst for simplification, enabling every user in the organization to easily interact with data. As many organizations move to decentralize their data domain, we see a high potential for data products to build the integration layer of different autonomous domains. Join this session to learn how our Data Intelligence Platform combines AI with the benefits of a lakehouse, and how we leverage data products to deliver seamless data integration across technology domains.
Prerequisites: General understanding of data architecture and data mesh is an advantage
With ten years of enterprise experience as an IT & Enterprise Architect at a global telecommunications provider, Bernhard has spent the last eleven years helping companies with their digital transformation: Starting with API management as an enabler for multimodal IT, he now helps companies on their journey to become data-driven. As an Enterprise Architect, his main areas of expertise are platforms, people, and processes for enterprise cloud platforms in the area of data and AI.
Christoph Morgen ist Produkt Manager bei SAP und verantwortlich für die AI- und Machine Learning Funktionalitäten von SAP HANA Cloud. Er ist seit 2012 bei SAP und im SAP HANA Product Management Team. Zuvor war er 13 Jahre bei SAS (Institute GmbH) Deutschland tätig.
As more and more organizations experiment with Generative AI and deploy it in production, a crucial question emerges: Can these applications be both safe and scalable in an enterprise context?
Cost Control, Auditing, Data protection, PII Detection, Retrieval Augmented Generation… the obstacles to deploying LLM in production are many.
In this session, you’ll find out how LLM Mesh is helping the Enterprise to overcome these obstacles.
Prerequisites: None
Sofiane Fessi ist Experte für Datenmanagement und Analytik bei Dataiku, wo er umfassende Erfahrung in den Bereichen künstliche Intelligenz und maschinelles Lernen einbringt. Sein Beitrag stärkt die datengesteuerte Entscheidungsfindung und Innovation im Unternehmen.
Ohne Zweifel befinden wir uns auf einer Welle des KI-Hypes. Doch dahinter steckt auch ein beeindruckender und realer technischer Fortschritt: ob LLMs die inzwischen auch komplexeren Aufgaben „lösen“ können oder fotorealistische Bilder und Videos, die man mit einem einzigen Prompt erzeugen kann. Gleichzeitig haben viele Unternehmen kurzfristige übertriebene Erwartungen an den Einsatz von KI, während sie die langfristigen Veränderungen übersehen.
Dieser Vortrag ist der Versuch einer Standortbestimmung: Wo steht KI technisch? Was ist real, was Hype? Wo stehen die Unternehmen mit der Umsetzung und woran scheitern sie? Und wo steht Deutschland und Europa im globalen Vergleich?
Dr. Philipp Hartmann ist Director of AI Strategy der appliedAI Initiative und unterstützt in seiner Rolle Unternehmen dabei, einen nachhaltigen Mehrwert durch künstliche Intelligenz zu schaf-fen und sie auf ihrer individuellen Reise zur KI-Reife zu begleiten.
2018 startete er als Senior AI Strategist und übernahm bereits 2019 durch seine umfassen-den Kenntnisse im Bereich KI-Strategie die Rolle des Directors. Vor seiner Arbeit bei appliedAI war Dr. Hartmann als Senior Associate bei McKinsey & Company tätig.
Mit Blick auf die sich verändernden Wettbe-werbsbedingungen berät er Firmen dabei, wie sie das Thema KI-Transformation angehen müs-sen und zeigt auf, welche neuen Geschäftsmo-delle entstehen.
Dr. Hartmann promovierte an der Technischen Universität in München zu Wettbewerbsfakto-ren beim Einsatz von künstlicher Intelligenz. In seiner Laufbahn konnte er sein Wissen in ver-schiedenen Bereichen ausbauen und ist nun als strategischer Kopf ein Wegbereiter für große und mittelständische Unternehmen.
In seiner Freizeit verbringt er viel Zeit mit seinen drei Kindern und fährt leidenschaftlich gern Rennrad.
In diesem Slot zeigt Johannes Hötter (Mitgründer und Geschäftsführer des Bonner Startups Kern AI) welche Chancen & Herausforderungen GenAI im Financial Services-Segment mit sich bringt. Dabei werden sowohl fachliche als auch technische Details vorgestellt, welche an diesem Anwendungsfall Ideenimpulse geben soll, wie Anwendungen konkret umgesetzt werden können und Herausforderungen gelöst werden können. Vorgestellt wird dies anhand des Frameworks "Data-centric RAG"
Sprecher: Johannes Hötter
Hosts: Jan Wiltschut & Michael Zimmer
Johannes Hötter ist studierter Wirtschaftsinformatiker und seit 9 Jahren mit großer Begeisterung im Feld der KI tätig. Während seines Studiums baute er zunächst eine KI-Beratung mit sechsstelligem Umsatz auf, gründete nach Abschluss dann das Startup Kern AI. Neben seiner Tätigkeit bei Kern AI, einem KI-Lösungsanbieter im Segment der Financial Services mit über 10.000 Usern weltweit, ist Johannes Online-Dozent für mittlerweile über 50.000 Teilnehmende in KI-Kursen am Hasso-Plattner-Institut.
Dr. Jan Wiltschut ist als Senior Product Portfoliomanager bei der Firma Verisk Property Solutions Continental Europe für das Produktportfolio mit dem Schwerpunkt datengetriebene und KI-unterstützte Produkte und Prozesse verantwortlich. Davor war er bei der Firma Eucon Digital GmbH Prouktmanager für den Bereich „Data Solutions“ und davor im Provinzial Konzern für das Thema „Künstliche Intelligenz im Schadenbereich“ zuständig. Hierbei beschäftigt er sich mit der Identifikation, Bewertung, Entwicklung und Umsetzung von KI-UseCases, die die Schadenprozesse hinsichtlich Ertrag, Effizienz und/oder Kundenzufriedenheit verbessern. Er hat über das Thema „computational neuroscience“ promoviert, konkret um die Entwicklung eines biologisch motivierten neuronalen Netzes für den (frühen) Sehprozess von Säugetieren. Vor seiner Zeit bei der Provinzial war er als Consultant schon einmal bei der Firma Eucon GmbH auf dem Gebiet des „Automotive Aftersales“ beschäftigt.
Dr. Michael Zimmer ist Chief Data & AI Officer und Leiter des Kompetenzzentrum für KI in der W&W-Gruppe. Michael wird die strategische Kompetenz in der W&W-Gruppe auf diesem Gebiet ausbauen. Er hat über Agilität von Datenarchitekturen promoviert und war vor seiner Zeit bei der W&W CDO der Zurich Gruppe deutshcland und mehr als 13 Jahre in der Beratung tätig. Er ist Herausgeber und Autor diverser Bücher und unter anderem TDWI Fellow, männlicher Alliierter der Woman Leaders in Data & Analytics (WLDA) sowie Mitglied der Arbeitsgruppe Ethical AI der deutschen Aktuarsvereinigung.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/michael-zimmer/
Vortrag Teilen
Beweise Dein IT-Knowhow und gewinne tolle Preise in diesem unterhaltsamen Quiz nach Art von „Wer wird Millionär“. Doch Vorsicht: Die Fragen sind kniffelig und raffiniert gestellt. Unglaubliche Geschichten, historische Rekorde, aktuelle Technologietrends, usw… Spiele live mit dem eigenen Smartphone kostenfrei gegen andere Teilnehmer und lasse dich von mir nicht in die Irre führen. Richtiges „um-die-Ecke-Denken“ garantiert staunen und lachen…
Bei der arelium GmbH arbeitet der Wirtschaftsinformatiker als Projektleiter, SCRUM-Master oder T-SQL-Spezialist bei der Umsetzung komplexer DB-Projekte. Seit 2003 beschäftigt Torsten Ahlemeyer sich beruflich mit DB-Optimierungsaufgaben sowie ungewöhnlichen T-SQL-Queries. Auch SSAS, SSIS, SSRS, die Migration nach Azure und natürlich auch Power BI sind in seinem Fokus. Daneben gibt der Autor von Fachbeiträgen sein Wissen auch in Schulungen, Workshops und auf IT-Konferenzen weiter.
Wir sprechen über unsere Erfahrungen, die wir bei der Einführung von Fabric gemacht haben und über mögliche Hürden, die wir auf dem Weg identifiziert haben und wie diese umschifft werden können.
Fabian Heidenstecker ist seit ca. 20 Jahren in der IT unterwegs. Die letzten 13 Jahre in unterschiedlichsten Positionen im Consulting. Ursprünglich startete er im CRM Umfeld, und kam dort erstmals mit dem Thema BI und Analytics in Berührung. So wurden Daten seine Leidenschaft, welcher er in zahlreichen Projekten nachgehen konnte.
Heute ist er Senior Manager für Solutions bei Opitz Consulting und begleitet mit seinem Team Kunden auf dem Weg zu Data-Driven Company.
Die Herausforderungen für Data Engineers und -Analysts im Big-Data-Universum ähneln einer intergalaktischen Mission: Sie müssen effizient durch gigantische und komplexe Datenmengen navigieren, die Datenqualität sicherstellen und schnelle, präzise Erkenntnisse aus den Daten gewinnen und visualisieren.
In dieser Case Study zeigen wir, wie die Kombination aus der leistungsstarken Aviator Database (Vertica) und der flexiblen Aviator Intelligence (Magellan) bei der Überwachung eines Mobilfunknetzes helfen kann und wie sich Probleme angesichts der großen Mengen an Mobilfunknutzungsdaten entschärfen lassen.
Erfahren Sie, wie Streaming-Daten in Lichtgeschwindigkeit in Vertica fließen und datenbankinterne Algorithmen für maschinelles Lernen helfen, potenzielle Netzüberlastungen vorherzusagen. Außerdem zeigen wir Ihnen, wie Sie durch sofortige Datenvisualisierung, interaktive Reports und Dashboard-Monitoring mit Magellan agieren können.
Nehmen Sie an dieser Session teil und erleben Sie ein praxisnahes Beispiel für Analytics und KI in Aktion.
Lilija hat über zwanzig Jahre Erfahrung in der Softwareindustrie – vom Projektmanagement bis zum technischen Vertrieb. Sie kam 2002 zu OpenText Analytics (damals noch Actuate) und übernahm 2017 die Verantwortung für das europäische AI & Analytics Solution Consultants Team. Sie unterstützt dort Kunden und Partner bei Umsetzung von Analytics- und AI Projekten.
Marco ist ein Data Warehousing- und BI-Profi in praktisch allen Disziplinen der Szene. Er entdeckte seine Leidenschaft für Vertica vor etwa 14 Jahren, als 2010 HP und anschließend Micro Focus, Vertica kaufte. Seit der Übernahme durch OpenText im vergangenen Jahr, ist er Chief Technologist für OpenText Aviator Database (ehemals Vertica).
Dieser Vortrag gibt Einblicke in die Historie des Data Warehousings bei GRENKE und damit einhergehend in die erfolgreiche Implementierung von Data Vault 2.0 und dbt in Zusammenarbeit mit Scalefree. Wir diskutieren die gewonnenen Erkenntnisse und Vorteile dieser neuen Technologien und Methodiken. Außerdem betrachten wir die Entwicklung und Integration eines Fachdatenmodells in das Data Warehouse und dessen Relevanz und die daraus resultierenden Vorteile für die Datenverarbeitung bei GRENKE.
Wir werden die spezifischen Vorteile, die GRENKE durch diese Initiative erlangt hat, genauer beleuchten. Zudem werden Rückblicke auf Lessons-Learned und abgeleitete Best Practices bei der Implementierung von dbt präsentiert. Der Vortrag bietet somit einen Einblick in erfolgreiche Datenstrategien und liefert wertvolle praktische Erkenntnisse für ähnliche Implementierungsprojekte.
Der Vortrag ist für alle interessant, die ähnliche Implementierungsprojekte planen, bereits durchführen oder daran interessiert sind. Auch Personen, die an innovativen Ansätzen zur Datenverarbeitung und -analyse interessiert sind, könnten wertvolle Einblicke aus diesem Vortrag gewinnen.
GRENKE ist ein Finanzdienstleister für kleine und mittelständische Unternehmen. Mit über 40 Jahren Erfahrung am Markt bietet die GRENKE AG ihre Finanzierungslösungen in über 30 Ländern an.
Als Chief Data & Analytics Officer hat Oliwia Borecka die Verantwortung für die Daten und Analytics Systeme der GRENKE Gruppe, datengetriebene Produkte und Services wie Master Data Management und Data Governance, sowie die Hoheit über das operative Reporting.
Oliwia hat langjährige Erfahrung im Themengebiet Business Intelligence und allen vor- und nachgelagerten Bereichen. Ihre Teams konzentrieren sich darauf, Mehrwert durch datenzentrische Services zu bieten.
GRENKE ist ein Finanzdienstleister für kleine und mittelständische Unternehmen. Mit über 40 Jahren Erfahrung am Markt bietet die GRENKE AG ihre Finanzierungslösungen in über 30 Ländern an.
Als Head of Data-Driven Applications & Services hat Thomas Kronawitter mehr als 20 Jahre Erfahrung in den Themengebieten Daten Management im Microsoft SQL Server Umfeld, IT-Services und IT-Infrastruktur. Seine Abteilung konzentriert sich darauf, Mehrwert durch datenzentrische Produkte zu bieten. Der Verantwortungsbereich erstreckt sich von den Daten und Analytics Systemen des Konzerns bis hin zum zentralen Dokumentenmanagementsystem.
Tim Kirschke verfügt über einen Bachelor-Abschluss in angewandter Mathematik und ist seit Anfang 2021 als Senior BI Consultant bei Scalefree tätig. Sein Fachgebiet liegt insbesondere im Design und der Umsetzung von Business Intelligence-Lösungen, wobei er sich auf die Data Vault 2.0 Methodik konzentriert. Zu seinen Expertise-Schwerpunkten zählen Automatisierungslösungen, wie dbt, Coalesce, oder Wherescape.
Der Bedarf an ein schnelles Deployment auf die verschiedenen Stages wächst immer mehr. Durch den Einsatz von WhereScape konnten im Bereich des DWH und DataLake der Helsana bereits erste Optimierungen und Beschleunigungen erreicht werden. Diese Case Study gibt einen Einblick welche Optimierungsmöglichkeiten beim Einsatz von WhereScape in Verbindung mit 2Version für ein automatisiertes Deployment vorhanden sind und wie diese in der Helsana umgesetzt wurden.
Stefano Buccarella ist Solution Architect/DevOps Engineer bei der Helsana Versicherungen AG. Die Haupttätigkeiten sind unter anderem die Deployment-Automatisierung der verschiedenen Software-Stacks (WhereScape/Exasol/Microstrategy) und die Qualitätssicherung der Implementierungen in WhereScape. Seit über 20 Jahre in der IT tätig bringt er ein breites Wissensspektrum in der Systemintegration, in der Implementierung und im Lösungsdesign mit.
Wie wir nach 70+ erfolgreichen Implementierungsprojekten Snowflake für unsere Kunden einrichten. Schnell umgesetzt, leicht erweitert, dank Infrastructure-as-Code Ansatz skalierbar und versionskontrolliert. Kein lästiges Herumklicken in der UI mehr. Alle Informationen an einem Ort. Einfach, verständlich, und optimiert für gute Kostenkontrolle. Der perfekte Start in eine gute Snowflake Implementierung.
Geschäftsführer bei Gemma Analytics. Wir sind eine Unternehmens- und Implementierungsberatung für die Umsetzung von Projekten im Bereich Data Analytics, Data Warehousing, Data Engineering und Data Science. In den vergangenen Jahren durfte ich sowohl mit schnell wachsenden Kunden wie Enpal, yfood und Flaschenpost als auch mit etablierten Unternehmen wie Viessmann und Vaillant zusammenarbeiten.
Die Gesellschaft zur Erforschung des Markenwesens (GEM) ist die Plattform für Markenforschung im Netzwerk des Markenverbands. Wir unterstützen durch grundlegende und zukunftsweisende Forschungserkenntnisse und inspirieren durch erfolgreiche Praxisbeispiele. Dies ist auch die Grundlage dieses Vortrages.
Marken wecken Emotionen, halten Versprechen und geben dem Kunden Orientierung bei seiner Kaufentscheidung. Markenintelligenz beschreibt die Fähigkeit, Daten einzusetzen, um die Kundenwahrnehmung einer Marke zu verstehen und die Kaufwahrscheinlichkeit einzuschätzen und zu verbessern.
Wichtig ist für uns ein effizienter und intelligenter Umgang und ein Mehrwert aus Daten und nicht nur das Sammeln von Daten an sich. Daher ist es essentiell, sich darüber im Klaren zu werden welche Daten gebraucht werden, Transparenz zu schaffen, Prioritäten zu setzen und dann fokussiert umzusetzen.
Erfolgreiche Praxisbeispiele zu kommunizieren und zu feiern, ist auch ein Grundpfeiler der GEM und Basis für jeden Unternehmenserfolg. Beispiele wie Katjes, Sixt, Frosta und Vaude zeigen wie man Marken erfolgreich nach vorne bringen kann.
Jens Lönneker ist Tiefenpsychologe mit dem Schwerpunkt Markt-, Medien und Kulturforschung. Er forscht und berät national wie international in den Bereichen Grundlagenforschung, Produkt- und Markenentwicklung sowie Kommunikationsstrategien. Buch- und Zeitschriftenveröffentlichungen u.a. zu den Themenfeldern Ernährung, Medien, öffentliche Meinungsbildung, Sponsoring und Verfassungsmarketing.
Jens Lönneker ist Präsident der Gesellschaft zur Erforschung des Markenwesens e.V. (G·E·M) – eine der ältesten Forschungsgesellschaften in Deutschland mit einer Tradition von über 100 Jahren.
https://www.linkedin.com/in/jens-lönneker/
Monika Schulze verfügt über ein breites Spektrum an Erfahrung in der Fast Moving Consumer Goods- und Versicherungsbranche.
Bevor sie sich auf ihre Aufsichtsratsmandate spezialisiert hat, war sie Global CMO bei der Zurich Versicherung in der Schweiz und als Leiterin des Bereichs Customer and Innovation Management in Deutschland tätig. Davor führte sie ihr eigenes Unternehmen als strategische Beraterin. In den letzten beiden Positionen bei Unilever war sie als Vice President Brand Development Europe und als Business Director Foods mit P&L-Verantwortung in Ungarn tätig.
https://www.linkedin.com/in/monikaschulze/