Einfach Big Data
18.05.2017, 00:00 Uhr
Data Lake mit Apache Hadoop
So bauen Sie eine verteilte Analyseplattform für große Datenmengen auf.
Ziel eines Data Lake ist es, große Datenmengen effizient zu verarbeiten. Neben den funktionalen Anforderungen wie dem Beladen mit Daten, deren Verarbeitung und der Bereitstellung von Ergebnissen prägen auch nichtfunktionale Anforderungen wie Daten- und Plattformsicherheit einen Data Lake. Weiterhin sind auch Data-Governance-Themen und Antwortzeiten in vielen Fällen Parameter, die letztendlich bestimmen, wie ein Data Lake implementiert wird.
Jetzt 1 Monat kostenlos testen!
Sie wollen zukünftig auch von den Vorteilen eines plus-Abos profitieren? Werden Sie jetzt dotnetpro-plus-Kunde.
- + Digitales Kundenkonto,
- + Zugriff auf das digitale Heft,
- + Zugang zum digitalen Heftarchiv,
- + Auf Wunsch: Weekly Newsletter,
- + Sämtliche Codebeispiele im digitalen Heftarchiv verfügbar