Track: Confluent@TDWI
- Dienstag
21.06.
Wenn es ein Buzzword der Stunde geben würde, dann wäre es sicherlich “Data Mesh”! Dieses neue architektonische Paradigma erschließt analytische Daten in großem Umfang und ermöglicht den schnellen Zugriff auf eine ständig wachsende Zahl verteilter Domaindatensätze für eine Vielzahl von Nutzungsszenarien. Damit behebt der Data Mesh die geläufigsten Schwachstellen der traditionellen zentralisierten Data Lake- oder Datenplattform-Architektur. Und das Herzstück einer Data Mesh-Infrastruktur muss in Echtzeit, entkoppelt, zuverlässig und skalierbar sein.
In diesem Vortrag zeigt Kai Waehner, wie Apache Kafka als offene und skalierbare dezentrale Echtzeitplattform die Basis einer Data-Mash-Infrastruktur sein kann und - ergänzt durch viele andere Datenplattformen - echte Geschäftsprobleme löst.
Kai Wähner works as Technology Evangelist at Confluent. Kai’s main area of expertise lies within the fields of Big Data Analytics, Machine Learning / Deep Learning, Cloud / Hybrid Architectures, Messaging, Integration, Microservices, Stream Processing, Internet of Things and Blockchain. He is regular speaker at international conferences such as JavaOne, O’Reilly Software Architecture or ApacheCon, writes articles for professional journals, and shares his experiences with new technologies on his blog (www.kai-waehner.de/blog). Contact and references: kontakt@kai-waehner.de / @KaiWaehner / www.kai-waehner.de / LinkedIn (https://www.linkedin.com/in/megachucky/).
Weitere Infos folgen in Kürze.
Hybride Architekturen zwischen On-Prem und Cloud stellen immer eine hohe Komplexität dar, aber sind oftmals essentiell für stark regulierte Bereiche. In dem kurzen Impuls werden verschiedene Ansätze aufgezeigt, wie mit Hilfe der Confluent Plattform eine systemübergreifende Event Streaming Architektur einfach gedacht und aufgebaut werden kann.
Kafka Nachrichten über meherere Standorte zu verteilen, kann mit einigen Herausfoderungen verbunden sein. Wir stellen eine Möglichkeit vor, solche Nachrichten gerichtet, sicher und einfach zwischen On-Premise und Cloud Kubernetes Clustern zu replizieren. Neben Kubernetes Operatoren setzen wir dazu auf Kafka Connect.
Alfred Schmid ist Lead Expert Software Engineer bei Steadforce. Er ist Spezialist für Cloud-Architekturen in der Public Cloud und On Premise. Als Technical Lead fördert und fordert er Teams bei der Umsetzung von Green-/Brown-Field Projekten, der Zerlegung von Monolithen und Automatisierung mit GitOps.
Kai René Koch ist leidenschaftlicher Software Engineer bei Steadforce. Seine Schwerpunkte liegen in den Themen rund um Cloud, Container, Kubernetes und Kafka. Neben Entwicklung, Automatisierung und Vereinfachung beteiligt er sich mit Engagement an Open Source Software.
The Data Lake is dead, long live the Data Mesh! But what is a Data Mesh exactly? And how does Real-Time fit into it?
In this talk you’ll learn what a Data Mesh approach brings to the table, as well as the why and how of creating a Real-Time backbone for your Data Mesh architecture.
Alex Piermatteo works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. Alex is regular speaker at conferences and his main area of expertise lies within the fields of Stream Processing, Big Data Integration & Analytics, Cloud, Microservices and DevOps.
Sergio Spinatelli works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. With experiences in major industries (Automotive, Retail, Media, Banking) and with state of the art Big Data technologies, he focuses on Stream Processing, Real-Time Analytics, Microservice Architectures and Cloud.
Im Rahmen von Smart Factory stellen wir vor, wie Kafka-Streams-Lösungen Architekturen mit einem End-to-End-Ansatz für vernetzte Fertigungsprozesse ermöglichen.
Hierzu zeigen wir auf, wie Datenquellen erschlossen und angebunden werden können. Des Weiteren stellen wir die dazu relevanten Confluent-Bausteine vor und zeigen schnelle, integrierbare Lösungen. Wichtige Aspekte der Datenharmonisierung und Umsetzung der Business Logik in Kafka spielen ebenfalls eine Rolle, wie auch die effiziente Speicherung der Daten in einem Data Lakehouse bzw. einem Data Warehouse. Last but not least - Visualisierung von Realtime bzw. Neartime Daten in BI Lösungen.
Wojciech Filarski arbeitet seit fast 20 Jahren mit dem Thema Daten. Er kennt sich im Bereich der Kapitalmärkte mit Compliance Richtlinien aus, unterstützt branchenunabhängig Unternehmen verschiedenster Größe bei ihrer BI Strategie und versteht es, aus Daten Handlungsempfehlungen zu generieren. Sein breites Wissen teilt er sowohl mit seinen Kunden als auch den Mitarbeitern aus seinem Team.
Dave Canton hat eine Passion für Daten Streaming. Er arbeitet seit vielen Jahren mit dem Thema und kennt sich bestens mit den dazu gehörigen Technologien für Lösungsansätze zur Umsetzung aus. Er hat diverse Beiträge veröffentlicht, die branchenunabhängig verdeutlichen, warum jedes Unternehmen sich mit realtime Analysen befassen sollte.
Stackstream ist die erste Plattform von Entwicklern für Entwickler und beim Aufbau dieser Plattform war klar, dass es ohne Echtzeit-Daten hier nicht geht! Um das Engagement der Nutzer auf der Plattform zu erhöhen, setzen wir auf Gamification-Elemente, bei denen Clickstream-Daten in Echtzeit analysiert werden, was neben dem Spaß-Faktor auch einen Live-Überblick über die KPIs der Plattform ermöglicht.
In diesem Vortrag erfahrt ihr, wie wir eine skalierbare Live-Streaming-Plattform basierend auf Apache Kafka und Confluent Cloud aufgebaut haben und seit Tag 1 auf Stream-Processing setzen.