Zu berücksichtigende Herausforderungen
Viele Unternehmen sind besorgt, dass die Menge der angesammelten Daten so groß wird, dass es schwierig wird, die wertvollsten Informationen zu finden.
- Was ist, wenn die Datenmenge so groß und vielfältig wird, dass Sie nicht wissen, wie Sie diese handhaben sollen?
- Speichern Sie alle Ihre Daten?
- Analysieren Sie sie alle?
- Wie können Sie herausfinden, welche Datenpunkte wirklich wichtig sind?
- Wie können Sie sie zu Ihrem größten Vorteil nutzen?
Bis vor Kurzem waren Unternehmen darauf beschränkt, nur Teilmengen ihrer Daten zu nutzen, oder mussten sich auf einfache Analysen beschränken, weil das schiere Datenvolumen ihre Verarbeitungsplattformen überwältigte. Aber welchen Sinn hat es, Terabytes von Daten zu erfassen und zu speichern, wenn man sie nicht im vollen Zusammenhang analysieren kann oder Stunden oder Tage auf Ergebnisse warten muss? Andererseits lassen sich nicht alle geschäftlichen Fragen durch Big Data besser beantworten. Sie haben jetzt zwei Möglichkeiten:
Analyse riesiger Datenvolumen. Wenn für die Antworten, die Sie suchen, eine Analyse aller Ihrer Daten erforderlich ist, dann lassen Sie sich nicht abhalten. Es gibt heute Hochleistungstechnologien, die Werte aus riesigen Datenmengen extrahieren. Ein Ansatz ist die Nutzung von High-Performance Analytics-Technologien wie Grid Computing, In-Database Processing und In-Memory Analytics zur Analyse von großen Datenmengen.
Vorab bestimmen, welche Daten relevant sind. Traditionell neigte man dazu, alles zu speichern (Kritiker nennen das Datenhortung) und erst bei der Abfrage der Daten festzustellen, was relevant ist. Heute haben wir die Möglichkeit, Analysen am Front-End durchzuführen, um die Relevanz anhand des Kontextes zu bestimmen. Diese Art der Analyse bestimmt, welche Daten in Analyseprozesse integriert werden sollten und welche gegebenenfalls zur späteren Verwendung auf günstigem Speicherplatz gespeichert werden sollten.