08.10.2015, 00:00 Uhr
Daten beeinflussen strategische Entscheidungen
Laut einer einer Studie fällen nur zwei Prozent der befragten Unternehmen strategische Entscheidungen nicht auf Basis von Zahlen.
"Big Data Use Cases 2015" heißt eine Studie, die BARC (Business Application Research Center) auf einer Roadshow von Cloudera vorstellte (http://barc.de/blog/big-data-use-cases-infografik). Nahezu alle befragten Unternehmen gaben darin an, dass ihre strategische Entscheidungen von Daten gestützt seien, oder sogar alleinig auf Grundlage von Ergebnissen aus Big-Data-Analysen getroffen würden. Lediglich zwei Prozent aller weltweit befragten Unternehmen verneinten eine Rolle von Big Data bei solchen Entscheidungen. 37 Prozent der befragten Unternehmen haben ihren Stammsitz in der DACH-Region.
Auf der Roadshow zeigte Cloudera die zwei neuen Erweiterungen für Apache Hadoop: Kudu und RecordService. Das Open-Source-Projekt Kudu stattet Hadoop mit schneller Analysefähigkeit aus und RecordService ist ein Zugangskontrollsystem zu den Daten.
Laut Mike Olson, Co-Founder und Chief Strategy Officer, nimmt die Verbreitung von Cloudera in ganz Europa derzeit schnell zu. Das dürfte unter anderem der Tatsache geschuldet sein, dass Big-Data-Projekte in Nordamerika schon länger eingesetzt werden, jedoch europäische Lösungen immer mehr an Bedeutung gewännen.
Die beiden größten Herausforderungen für Dateninitiativen sind der Datenschutz - besonders bei den strengen Richtlinien in der EU - und die Datenqualität. Nicht nur die Referenten berichteten von einem vielversprechenden Projekt, das am Ende gescheitert sei, weil die vorhandenen Daten nicht für den individuellen Anwendungsfall geeignet oder von niedriger Qualität waren.
Dies bestätigen auch die beteiligten Unternehmen in der obengenannten BARC Studie: 53 Prozent gaben an, dass in deren eigenen Big-Data-Projekten die größte Herausforderung in fehlendem fachlichem und/oder technischem Know-How begründet sei sowie die Anforderungen des Datenschutz.
Daneben scheuten viele noch davor zurück, Big-Data-Projekte zu realisieren. Der Grund: Es müsste die Bedienung neuer Tools erlernt werden, obwohl das nicht immer der Fall sein muss. Am erfolgversprechendsten sei es, zu Beginn einen konkreten Business Case zu definieren, in welchem das Projekt einen Mehrwert generiert. Denn der Business Value sei Ziel jeder Datenanalyse.
Alternativ könne jedoch das bestehende Tool-Set als Ausgangswert gelten und auf dieser Grundlage ein Solutions-Anbieter gewählt werden. In den Entscheidungsprozess einbezogene Benchmarks oder bekannte Erfolgsprojekte aus der eigenen Branche unterfütterten die Entscheidung.
Schon zu Beginn der Roadshow wurde ein Big-Data-Projekt skizziert mit Beteiligung aus den Bereichen Technik, Business und Data. Der Wunschkandidat eines jeden Datenprojekts ist damit ein Data Scientist, der gleichzeitig Software-Engineer und Statistiker ist.
Diese drei Elemente mit starker Ausprägung in einer Person vereint zu finden, scheint schwer zu sein. Das Panel mit Vertretern von Accenture AG, F. Hoffmann-La Roche AG, Lufthansa Industry Solutions AS GmbH und SAS Institute GmbH empfahl einhellig, ein Team zusammenzustellen, das aus einem Data Scientist, einem Software Engineer und einem Statistiker besteht. So seien alle Disziplinen abgedeckt.
Tipp: Für Big-Data-Teams bietet die SMART DATA Developer Conference eine gehaltvollen Mischung aus Praxisvorträgen. Eine solide Grundlage, um darauf aufzubauen, bietet der Workshop R + S - eine Einführung für den Statistik-Aspekt. Lösungsansätze für die Herausforderung Datenqualität erläutert Dr. Hanna Köpcke anhand von MapReduce.
Mit welchen Ansätzen und bewährten Bibliotheken Softwareentwickler die Leichtigkeit der Programmierung für Big-Data-Projekte zurück gewinnen können, zeigt Daniel Rohr in seiner Konferenzsession.
Weitere Technologien im Programm sind Machine Learning, Stream Analytics, HDInsight und PostgreSQL. Übrigens: Als dotnetpro-Leser erhalten Sie mit dem Code SDDC15ddnp einen Rabatt. [kh]