Big Data ist genau das, nach was es klingt: eine grosse Datenmenge. Um Big Data zu charakterisieren wird generell das 4 V Modell verwendet.
Diese 4 V sind:
- Volume. In welcher Grössenordnung von Daten wird gearbeitet?
- Velocity. Wie oft werden diese Daten abgerufen?
- Variety. Wie viele Arten von Daten werden verarbeitet?
- Veracity. Wie ist die Qualität der Daten?
Die Schwierigkeit mit diesen vier Faktoren umzugehen ändert sich von Unternehmen zu Unternehmen.
Der Begriff Big Data ist nicht streng definiert, doch generell wird erst von solchen davon gesprochen, wenn die Datenmenge Terabytes (1000 oder 1024 Gigabyte) übersteigt. Ein herkömmlicher Laptop hat oft nur 128 oder 256GB Speicher zur Verfügung. Daten in diesen Mengen zu verarbeiten ist bereits eine Herausforderung, doch die nächsten drei V machen dies noch schwieriger.
In der Regel wird Big Data in Echtzeit oder fast in Echtzeit abgerufen. Die Datenmenge ändert sich also konstant und es werden Systeme benötigt, welche Fähig sind kontinuierlich Daten zu liefern.
Die Form der Daten ist ebenfalls wichtig, doch für viele Anwendungen sind die Daten nicht willkürlich vermischt, sondern werden zumindest halbwegs strukturiert hinterlegt.
Schlussendlich ist noch die Qualität der Daten wichtig. In der Welt der IT gilt der Grundsatz «garbage in, garbage out». Wenn die Qualität der Daten unzureichend ist, dann ist auch die Aussagekraft der Analyse fragwürdig.
All diese Herausforderungen zu meistern ist selbst für fortschrittliche Wirtschaftszweige nicht einfach. Die Immobilienbranche hinkt auch hier noch hinterher.
Comments are closed.