Die Macht von Big Data

NewsTrends

Mit der Fähigkeit zu datenfokussierten Entscheidungen stellen Verantwortliche ihre Unternehmen weit vor den Mitbewerbern auf. Arne Jacobsen, Director DACH, Varonis Systems, sieht den Nutzen der Analyse unstrukturierter Daten.

Es folgt die Einschätzung von Arne Jacobsen, Director DACH, Varonis Systems:

 

Das Tempo bei der digitalen Kommunikation von Menschen untereinander, von Menschen und Maschinen, und von Maschinen zu Maschinen nimmt stetig zu. Bei jeder Kommunikation generieren die Computer Daten, die sich Tag für Tag zu einem riesigen Gebirge auftürmen. Die IT-Experten sprechen von „Big Data“ – Exabytes oder sogar Zettabytes an Daten, die in den Datenbanken liegen und alt werden.   Diese Daten folgen den Gesetzen der Marktwirtschaft – je mehr Daten zur Verfügung stehen, desto billiger werden sie. Gleichzeitig aber steigen die Kosten für Methodik, Werkzeuge und Technologie mit deren Hilfe die Verantwortlichen die wertvollen Informationen aus ihren Datengebirgen schürfen.

Die wichtigsten und teuersten Informationen liegen dabei in unstrukturierten Daten. Dokumente, Videos, Forschungsergebnisse, Bilder können aber nicht einfach mit Datenbanktools ausgewertet werden. Hier müssen die Techniker Brücken bauen, mit Metadaten arbeiten.   Industrieexperten unterstreichen, dass eine durchgängige Automatisierung für mehr als nur gutes Handling und Management nötig ist. Um sich den Wert – und damit auch die Macht – innerhalb „Big Data” zunutze zu machen, müssen Organisationen Analysen durchführen und Aktivitätsmuster finden. Wie und wann haben die Mitarbeiter, die Kunden, die Partner diese massiven Datenmengen benutzt. Wer hat sie verwendet und in welcher Reihenfolge? Was ist der Inhalt dieser Daten und in welchem Kontext stehen sie? Welche Daten sind unnötig oder behindern den Erfolg des Unternehmens?

Das Ziel dieser Auswertung ist der Umbau des gesamten Unternehmens zu einer datengetriebenen Organisation – deren Wissen liegt in den Datenbanken, diese Intelligenz steuert und treibt Geschäfte und Prozesse.     Das Ziel einer datengetriebenen Organisation ist keinesfalls neu. Die Analyse großer Datenbestände hat bereits ganze Industriezweige auf den Kopf gestellt. Die Geschäftsmodelle der sogenannten „Social Networks“ basieren auf dem Konzept, billig gigantische Mengen von Daten einzusammeln und das hier gesammelte Wissen – nach entsprechenden Analysen und Auswertungen – an Kunden aus der Industrie zu verkaufen. Ein weiteres Beispiel ist das High Frequency Trading – „HFT“. Mit HFT wickeln Banken ihre Handelstransaktionen innerhalb von Mikrosekunden ab. Und das ausschließlich auf der Grundlage riesiger Informationsmengen, die innerhalb von Sekunden nach ihrem Eintreffen bereits verarbeitet und ausgewertet sind.   Inzwischen laufen rund die 70 Prozent aller Handelsaktivitäten als HFT ab. Und die Experten sind über dessen Rolle zerstritten. So gibt es heftige Diskussionen, ob der Einsatz von HFT ein unlauterer Vorteil sein könnte. Andererseits berichten die Securities and Exchange Commission – „SEC“ – sowie die Commodity Futures Trading Commission – „CFTC“ – übereinstimmend, dass HFT während des „Flash Crash“ am 6. Mai 2010 zur Volatilität der Märkte beigetragen habe.   Und einige Kritiker weisen wiederum auf einen anderen Zusammenhang hin – wenn die Analyse großer Datenmengen zu falschen Ergebnissen führt, könne dies einen Tsunami von schnell getroffenen aber leider falschen Entscheidungen auslösen. Aus Sicht dieser Experten war der „Flash Crash“ die Konsequenz des High Frequency Trading.

Trotzdem begeistern sich IT-Experten der unterschiedlichsten Branchen für die Chancen und Möglichkeiten rund um Big Data: Egal ob Astrophysik oder Gesundheitswesen, Finanzen, Öffentliche Verwaltung bis hin zum Einzelhandel. Und unter den Führungskräften ist eine gewisse Dringlichkeit zu verspüren, die Wettbewerbsfähigkeit ihrer Organisationen mit Hilfe von Big Data sicherzustellen. Im „Executive Advisory: CEO and Senior Executive Survey, 2011; Detail Report“ wurde die sogenannte „datenbasierte Entscheidungsfindung“ als die Technologie bewertet, die den Unternehmen den größten strategischen Wert liefert.     Die Analyse „Pattern-Based Strategy: Getting Value From Big Data“, wurde von Yvonne Genovese und Stephen Prentice verfasst und von dem Marktforschungsunternehmen Gartner herausgegeben. Hier führen die Autoren aus, dass „Geschäftsleute und Technologen feststellen, dass ein noch größerer potentieller Wert darin liegt, andere Arten von Daten auszuwerten, als solche, die es im Unternehmen momentan gibt und einige neue Arten von Daten. Viele Organisationen haben Daten über Jahre aufbewahrt und niemals versucht, sie zu analysieren oder nach Mustern zu suchen. Einfach weil das Verlangen in der Geschäftswelt danach nicht vorhanden war.“

Beispiele für solche Daten sind Tabellen, Präsentationen, Bilder, Audiodateien, Videodateien, Entwürfe und Zeichnungen. Solche Daten liegen meist in unstrukturierten Datensammlungen wie Archiven, E-Mail-Speichern oder File Systemen.   In unstrukturierten Datenlagern finden die Techniker häufig nicht allzu viele Metadaten zum Analysieren. Denn gewöhnlich werden hier keine Aktivitäten aufgezeichnet. Es gibt keine eindeutige Verbindung zu den Urhebern und Eigentümern der Daten. Und auch kein Verzeichnis darüber, welche Inhalte in den Daten zu finden sind.   Ironischerweise sind hier die größten Datenbestände mit den wichtigsten Informationen betroffen: Verschiedene Untersuchungen zeigen, dass über 80 Prozent der für die Organisation entscheidenden Daten in unstrukturierten Datensammlungen liegen.     In der Studie „Mastering the Information Explosion“ vergleicht Varonis die digitale Revolution mit der Revolution der Transportinfrastruktur. Der Kerngedanke: So wie die Gesellschaft für das Managen von immer mehr Autos immer mehr Ampeln benötigte, braucht sie bei mehr Datenbeständen und -verflechtungen immer mehr automatisierte Kontrollen. Damit kann sie sicherstellen, dass Daten zugänglich sind und korrekt verwendet werden.

Und die Aufgaben für die automatisierten Kontrollen sind vielfältig – hier eine unvollständige Liste:   –          Dateneigentümer identifizieren –          Aktivitäten aufzeichnen –          Berechtigungen überprüfen –          Rechte verwalten –          Datenzugang kontrollieren –          Missbrauch erkennen –          veraltete Daten identifizieren und löschen

Die Parallele mit der Verkehrsinfrastruktur geht noch weiter: Die Bewegungen von Kraftfahrzeugen und Flugzeugen werden maßstabsgetreu aufgezeichnet und analysiert. So können Besitzer ihre Autos mit Echtzeit-GPS steuern, Gesetzeshüter können Raser durch einen Blick auf automatisierte Mautaufzeichnungen schnappen und die Flugverkehrsleitung kann den Luftraum besser nutzen. Die Fahrzeuge selbst sind besser ausgeklügelt, sie liefern mehr Informationen über den Zustand eines jeden ihrer Teile und über ihren Gesamtzustand, so dass Sicherheit und Effizienz zunehmen.   So wie eine Metadatentechnologie für Organisationen nötig ist, Daten in unstrukturierten und halb strukturierten Datensammlungen zu verwalten, werden Organisationen auch sehen, dass die Analyse von Metadaten unbedingt notwendig ist. Denn nur so werden die Verantwortlichen den maximalen Nutzen aus den Daten ziehen. Nur auf diese Weise werden sie ihren Wert einschätzen, Datensätze identifizieren und die Verbindung zwischen Nutzern, Projekten und Eigentümern herstellen. Varonis nennt das „Metadatenintelligenz“.

Das Management verwendet die Metadatenintelligenz, um Geschäftsvorgänge in viele Richtungen zu verbessern. Sie überdenken die Arbeitsabläufe, lassen verschiedenste Teams zusammen arbeiten und entdecken neue Aktivitätsmuster.   Die gute Nachricht ist, die Organisationen können sich diese Intelligenz ganz einfach zunutze machen. Datenspeicherplattformen oder Arbeitsabläufe müssen sie dazu nicht umstellen. Sie erschließen lediglich ihre bestehenden Datenspeicher und nutzen so die Metadatentechnologie.

Lesen Sie auch :