Evans Data
30.07.2014, 00:00 Uhr
Big-Data-Projekte brauchen komplexes Event-Processing
Evans Data hat die Ergebnisse einer weltweiten Umfrage unter Softwareentwicklern vorgestellt, die an Big-Data-Projekten arbeiten, den "Big Data and Advanced Analytics survey".
71 Prozent der Befragten sagten, dass sie in ihren Applikationen komplexes Echtzeit-Event-Processing (CEP) einsetzen und zwar in mehr als der Hälfte der Laufzeit der Anwendung. 27 Prozent der Befragten nutzen das komplexe Echtzeit-Event-Processing sogar ausschließlich. Batch-Processing, wie es mit Hadoop durchgeführt wird, fanden lediglich 16 Prozent der Entwickler als eine ausreichende Lösung für ihre Anwendungen.
An der gerade veröffentlichten Umfrage haben sich mehr als 400 Entwickler beteiligt, die an Big-Data- und Advanced-Analytics-Projekten arbeiten. Die Studie ergab außerdem einen zunehmenden Bedarf an Speicherr. Über ein Drittel der Entwickler gaben an, dass sie davon ausgehen, dass die Gesamtgröße der Datenspeicher ihrer Unternehmen im kommenden Jahr um mehr als 75 Prozent wachsen werden. Nahezu 15 Prozent gingen sogar davon aus, dass sich die Größe der Datenspeicher verdoppeln wird.
Janel Garvin, CEO von Evans Data sagt zu den Ergebnissen: "Hadoops Batch-Processing Modell hat für einige Jahre sehr gut funktioniert. Aber die Herausforderungen von Big Data sind inzwischen gewachsen und erfordern Echtzeit-Event-Processing. Deshalb seien Apache Storm und andere kommerzielle CEP-Produkte in der Big-Data-Landschaft höchst willkommen."
Der neue "Big Data and Advanced Analytics survey" enthält als weitere Themen unter anderem die Treiber und Hemmschuhe von Big-Data-Plattformen und Tools. Den kompletten Inhalt der Studie sowie einige Beispielseiten können Sie bei Evans Data einsehen. [bl]