Gemeinsam machen wir das mächtige Thema Big Data einfach greifbar. Wir zeigen, dass Big Data ohne große Investitionen in jedem Unternehmen aufgesetzt werden kann. Hierzu konfigurieren wir ein Apache Hadoop Cluster mit Raspberry Pi. Das Java-basierte Framework verarbeitet schnell große Datenmengen auf verteilten Systemen und ermöglicht u.a. die Analyse unstrukturierter Daten in Echtzeit. Anschließend nutzen wir das innovative, selbstgebaute Cluster, um neue Erkenntnisse aus komplexen und in der Struktur variierenden Datensätzen zu gewinnen.
Unser Ziel ist, Big Data anwendbar und erlebbar zu machen - es soll in Unternehmen nicht länger für große '??' sorgen, sondern für 'Big Chances' stehen.
Zielpublikum: Data Scientists, Data Analysts, Business Intelligence Manager oder die, die es noch werden wollen, Young Guns und Interessierte, die offen sind für neue Technologien und es kaum erwarten können, Big Data 'zu erleben'
Voraussetzungen: Business Intelligence und DWH Basics
Schwierigkeitsgrad: Anfänger
Extended Abstract
'Die Suche auf Google nach dem Begriff 'Big Data' liefert ungefähr 7.620.000.000 Ergebnisse innerhalb von 0,35 Sekunden. Angefangen bei der Definition auf Wikipedia bis hin zum 'Big Data in drei Minuten'-Video auf YouTube ist alles dabei. Es ist nicht wirklich überraschend, wie viel über dieses Thema diskutiert wird. Doch wer kennt sich wirklich in den Unternehmen damit aus?
Fragen wie 'Sind die Anderen bereits viel weiter?' in Kombination mit übereilten Aussagen, wie 'Wir sind zu klein, um Big Data zu nutzen!' und 'Es ist zu teuer, Big Data einzuführen!' schrecken viele Unternehmen davon ab, Big Data tatsächlich einzusetzen.
Im diesjährigen HACKATHON bereiten wir innerhalb mehrerer Teams das Thema Big Data intensiv auf. Mit Millionen verkaufter Exemplare weltweit hat Raspberry Pi die Herstellerkultur beflügelt und ist zu einem Symbol für Kreativität und Innovation geworden. Wir demonstrieren, dass Big Data ohne große Investitionen und mit überschaubarem Aufwand in jedem Unternehmen aufgesetzt werden kann. Hierzu werden wir ein Apache Hadoop Cluster mithilfe von mehreren Raspberry Pis aufsetzen. Hadoop ist ein auf Java basierendes Framework, mit dem sich große Datenmengen auf verteilten Systemen in hoher Geschwindigkeit verarbeiten lassen. Dieses wiederum ermöglicht die Analyse von unstrukturierten Daten, ggfs. sogar in Echtzeit. Damit können neue Erkenntnisse und Zusammenhänge gefunden werden, um Abläufe und Geschäftsmodelle in Unternehmen zu optimieren. Dabei ist die kreative und experimentelle Lösungsfindung ein wesentlicher Aspekt der vor Ort durchgeführten Analyse.
Mithilfe des innovativen, selbstgebauten Clusters werden komplexe und in der Struktur variierende Datensätze in Echtzeit analysiert, um neue Erkenntnisse zu gewinnen.
Abschließend soll eine kritische Auseinandersetzung im Hinblick auf das grundlegende Verständnis der verschiedenen Systemkomponenten von Big Data sowie der Herangehensweise, Analyse und Umsetzung des Hackathons stattfinden.