Im Sommer 2017 / Buchrezension – „Rethink Big Data“ von Cornel Brücher, erschienen bereits 2013 bei mitp (Verlagsgruppe Hüthig Jehle Rehm GmbH), Heidelberg; Taschenbuch, rd. 170 Seiten.
Das faszinierende Thema Big Data begegnet uns immer häufiger auch in der allgemeinen Tagespresse. Cornel Brücher ordnet es für uns ein, zeigt historische Entwicklungslinien auf und beleuchtet Hintergründe. Sein Buch ist ein handlicher Primer, der sich sehr gut als Einführung liest, ohne auf Niveau zu verzichten. Mit einer großen Anzahl von Beispielen & Fallstudien eine lohnende Lektüre!
Worum geht es bei Big Data? Es geht gewissermaßen um das Finden von Nadeln in großen Heuhaufen, also dem Extrahieren nützlicher Parameter oder Zusammenhänge aus großen Datenmengen – Welche Möglichkeiten gibt es fürs intelligente „Aufstapeln“ großer Datenmengen? Wie können dabei nützliche von nutzlosen Daten-Heustapeln unterschieden werden, sind denn überhaupt Nadeln drin? Wie können diese Nadeln dann besonders effektiv & schnell gefunden werden?
Cornel Brücher bringt uns das Thema Big Data in all diesen Facetten auf vielfältige Weise nahe. Sein Buch gewinnt seinen besonderen Reiz durch die Vielzahl von Beispielen und das Aufzeigen von historischen Entwicklungslinien. Lochkarten sind der Urknall von Big Data, damit wurde möglich, Daten-Heu aufzustapeln. Im Vergleich mit heute waren das kleine Stapel, aber im Vergleich mit dem, was vorher möglich war, waren es Daten-Wolkenkratzer. Big Data-Fragestellungen finden sich bereits im Enigma-Problem (Bletchley Park), bei der Suche nach Außerirdischen, in der Spionage (NSA & Co.), bei der Analyse des „Big Bang“, also dem Urknall des Universums; es gibt medizinische Anwendungen und solche der Aktienanalyse bzw. des Hochfrequenzhandels, es geht um Motoroptimierung und Social Media, um Maximierung von Aussaaten in der Landwirtschaft, sogar um Tsunamis.
Große oder kleine Lösungen?
Strategisch stellt sich die Frage, ob Big Data eher durch Big Companies mit Big Software und Big Machines (Supercomputer) analysiert werden können und damit der allgemeinen Absenkung von Eintrittsbarrieren vermittels Apps und “Crowdsolving” entgegenwirken? (IBM glaubt das anscheinend.) Die Auffinden von „Datengold” in großen Daten-Heuhaufen ist derzeit weder einfach noch schnell oder gar kostengünstig – wir stehen am Anfang einer Entwicklung, die der Autor facettiert ausmalt. Supercomputer trifft Miniaturisierung, intelligente Software und Networks; Start-Ups im Wettbewerb mit Großkonzernen; da kann noch viel passieren.
Viele Ansätze und Möglichkeiten der Nutzung, also „Data to Action“, werden vom Autor umfassend beispielhaft in den Dimensionen „Volume, Velocity, Variety“ dargestellt. Und es wäre kein deutsches Buch, wenn nicht auch das Thema Datenschutz zu seinem Recht käme.
Meine Wertung: ein Buch für den interessierten Leser, der sich ein abgerundetes Verständnis für Thema schaffen will. Anregend geschrieben, mit Niveau und einem gelegentlichen Augenzwinkern. Lesen Sie zuerst „Rethink Big Data“ – dann sind Sie für Big Data besser gerüstet.
Thumbs Up!*
*Den Ausdruck “Thumbs Up“ gab es lange vor Facebook.
© 2017 by Ulrich Lehmann
Leave a Comment
Your email address will not be published. Required fields are marked with *