Große Daten

Wo beginnt Big Data? Ist Ihre Anwendung reif für den Wandel?

Branchenübergreifende Big Data Anwendungen

In unserer heutigen Welt, in welcher die Digitalisierung immer weiter fortschreitet, werden Tag für Tag riesige Datenmengen aus unterschiedlichsten Quellen generiert. Da die Chancen der Nutzung von Big Data klar erkennbar sind, führt es dazu, dass sich immer mehr Branchen die Macht der Daten zunutze machen. Die Hauptziele sind hierbei für die unterschiedlichen Organisationen gleich. Kostensenkung, Optimierung von Prozessen, verbessertes Marketing und ein erhöhter Kundenservice sind die wohl prominentesten Ziele. In diesem Artikel werden die Branchen, mit der größten Nutzung von Big Data Anwendungen vorgestellt.

Big Data Anwendungen: Gesundheitswesen

Verbesserte Besetzung

Durch die Nutzung von Big Data und Anwendung von Analyseverfahren, wie z.B. Zeitreihenanalyse lassen sich die Besuchsraten für die nächsten 15 tage prognostizieren. Aufgrund dieser Daten können für bestimmte Tage oder Uhrzeiten zusätzliches oder weniger Personal eingeplant werden. Dadurch werden Wartezeiten verkürzt und die Behandlungsqualität erhöht sich.

Patientenbeteiligung

Durch die konstante Weiterentwicklung von Apps und Wearables wird Patienten die Möglichkeit geboten sich selbst aktiv an ihrer Gesundheit und Prävention zu beteiligen. Mithilfe von zusätzlichen Gadgets und Apps können die Kunden dauerhaft ihre Werte, wie Herzfrequenz, Anzahl der Schritte und Schlafgewohnheiten aufzeichnen lassen. Durch die Analyse der Werte können somit vorzeitig potentielle Erkrankungen erkannt werden.

Entscheidungsunterstützung

Durch die Nutzung von Predictive Analytics können bei Patienten mit komplexen Krankheitsgeschichten leichter und schneller Entscheidungen getroffen werden. Durch die Einbeziehung mehrerer Faktoren können so Entscheidungen zur Behandlungen getroffen werden, zu welchen ein Arzt aufgrund der Komplexität, kaum im Stande wäre.

Elektronische Patientenakten

Elektronische Patientenakten sind die wohl am häufig verbreitetste Form der Nutzung von Big Data Anwendungen im Gesundheitswesen. Durch die Speicherung der persönlichen Daten der Patienten in Informationssysteme wird die Übertragung der Patientenakten von Arzt zu Arzt erleichtert. Zusätzlich können die Patienten einfach überwacht werden. Erhält der Arzt beispielsweise Labortests eines Patienten, so können diese direkt eingespeichert und bei Bedarf auch automatisierte Warnung ausgelöst werden.

Echtzeitanalyse

Bei der Echtzeitanalyse erhält der Patient Geräte, z.B. ein Herzschrittmacher, welche kontinuierlich Daten an das Krankenhaus senden. Durch die dauerhafte Überwachung und Analyse der Daten wird bei einer starken und bedrohlichen Änderung der Daten sofort der Arzt kontaktiert. Dieser kann nun Maßnahmen ergreifen, um die Werte des Patienten wieder zu korrigieren.[1]

Big Data Anwendungen: Finanzwesen

Kreditwürdigkeit

Die Prüfung der Kreditwürdigkeit ist eine Big Data Anwendung mit besonderer Bedeutung. Um einen Kredit zu beantragen werden Informationen über den Kreditstellenden gesammelt und analysiert. Ausgehend aus den Ergebnissen können nun Kreditvorschläge mit unterschiedlichen Konditionen erstellt werden oder die Herausgabe eines Kredits verhindert werden. Problem daran ist, dass die Sammlung der Daten sehr zeitaufwendig ist und unterschiedliche Faktoren einberechnet werden müssen. Beispielsweise können auch nichtfinanzielle Faktoren eine große Rolle in der Kreditvergabe spielen. Zusätzlich können kürzlich erworbene finanzielle Probleme nicht betrachtet werden, da diese noch nicht eingespeichert wurden.

Mithilfe der Big Data Anwendungen im Finanzsektor lassen sich Echtzeit-Analysen der Kundeninformationen durchführen. Dies ermöglicht es Banken sofort Auskunft über die Daten des Kunden zu erlangen. Als Folge dessen kann die Kreditwürdigkeit und Kreditkonditionen sofort geklärt werden.

Erkennen von Marktmustern

Besonders im Bereich des Aktienhandels kann dies von großem Vorteil sein. Durch die Nutzung von Predictive Analytics lassen sich Muster in der Vergangenheit erkennen und Prognose zu bestimmten Wahrscheinlichkeiten für die Zukunft treffen. Aufgrund der Möglichkeit der Echtzeit-Analyse können so schnelle Entscheidungen getroffen werden. Durch die Analyse von Texten aus dem Internet können zusätzlich Entscheidungshilfen gefunden werden. Da der Aktienmarkt sehr spekulativ ist sollten die Ergebnisse jedoch immer kritisch hinterfragt werden.[2]

Personalisierung

Durch die Analyse von Kundendaten können Produkte an den Kunden angepasst werden. Beispielsweise können sich die Personalisierungen nach demografischen Merkmalen, dem Verhalten oder den finanziellen Gegebenheiten richten. So können personalisierte Produkte, wie Sparkonto, Anleihen oder Kredite angeboten werden, welche auf die Bedürfnisse und Eigenschaften des Kunden zugeschnitten sind. Somit ermöglicht es Banken mehr Kunden zu generieren und mit größerem Erfolg Verträge abzuschließen.[3]

Big Data Anwendungen: Bildung

Verbesserung von Unterrichtsmethoden

Selbst in Schulen werden täglich viele unterschiedliche Daten erzeugt. Durch das Speichern, Vergleichen und Analysieren unterschiedlichster Lerntechniken und Methoden lassen sich bessere Methoden finden, den Kindern Stoff zu vermitteln. Durch die Analyse von Testergebnissen lassen sich beispielsweise auch besonders unvorteilhafte Unterrichtsmethoden erkennen.

Nutzung der Ergebnisse

Ein jeder Schüler hinterlässt im Laufe seiner Schullaufbahn eine schiere Menge an Daten. Einzelne Testergebnisse, Verhaltensweisen oder auch die Notenübersicht am Ende eines Halbjahres sind nur ein Teil der Quellen von Daten des Schülers. Durch die Analyse jener Daten können Bildungsstand oder auch Interessen des Schülers erkannt werden. In Folge dessen können beispielsweise Aufgaben für die Schüler personalisiert werden, um Schwächen zu reduzieren und Stärken weiterhin zu verbessern.

Zusätzlich lassen sich durch die Nutzung dieser Daten Karriereprognosen für die Schüler erstellt werden, welche auf Stärken und Schwächen, dem Wissensstand und den Interessen des Schülers basieren. Hiermit werden die Schüler und Eltern bei einer Auswahl eines zukünftigen Jobs unterstützt.[4]

Wirksamkeit von Lehrkräften

Ein wichtiger Faktor bei dem Erfolg der Schüler ist nicht nur der Schüler selbst, sondern auch der Lehrer, der das Fach unterrichtet. Durch Big Data Anwendungen können beispielsweise die Erfolge des Lehrers in den Klassen aufgezeichnet werden. Durch die Analyse der Ergebnisse und Unterrichtsmethoden des Lehrers kann dessen Wirksamkeit überprüft werden. In Folge dessen können Schulungen angeboten werden, durch die die Wirksamkeit des Lehrers gesteigert wird.

Big Data Anwendungen: Produktion

Optimierung der Fertigungsprozesse

Durch die Analyse von Maschinendaten lassen sich Prozesse in der Fertigung optimieren und unterschiedliche Prozesse besser aufeinander abstimmen. Da in einer Fabrik nicht nur Maschinen, sondern auch Menschen zum Erfolg beitragen müssen in der Fertigung diese Faktoren eingesetzt werden. Hinzu kommt, dass eventuell manche Arbeiter einige Maschinen nicht bedienen können oder für bestimmte Maschinen lange Rüstzeiten einzuplanen sind. Diese Unmengen an Faktoren machen es für einen Analysten so gut wie unmöglich, optimierte Prozesse zu planen. Mithilfe von Big Data Anwendungen lassen sich die Faktoren miteinander verbinden und zu optimierten Fertigungsprozessen zusammenführen.

Ein weiterer Punkt bei der Analyse von Maschinendaten ist die Effektivität und Qualität der Maschine. Durch Blick auf die Erträge lässt sich erkennen für welche Produkte die Maschine besonders hohe oder niedrige Erträge generiert. Je nach dem können Ursachen hierfür gesucht werden. [5] Mithilfe von Sensordatenanalyse können Fertigungsfehler zeitig erkannt werden und dadurch Kosten für eine spätere Nachbearbeitung eingespart werden.

Kundenspezifische Produkte

Ein Paradebeispiel der Fertigung von kundenspezifischen Produkten auf Bestellung lässt sich in der Automobilindustrie finden. Jeder Hersteller fertigt heutzutage die Fahrzeuge nach dem Built-to-Order-Prinzip. Dieses ermöglicht es Unternehmen effizient Fahrzeuge zu fertigen und auf Lagerung von nicht benötigten Teilen zu verzichten. Hierzu müssen die Hersteller jedoch Zugriff auf alle Verkaufsdaten besitzen um präzise Analysen über alle möglichen Konfigurationen und deren Auftragsvolumen durchzuführen. Zusätzlich können durch Analysen von Verkaufszahlen und Produktdaten die Rentabilität jeder einzelnen Konfiguration ermittelt werden.

After sales

Rückrufe von Produkten können enorme Kosten hervorrufen. Durch die Verwendung von intelligenten Analysetools, welche für die Analyse von Produktionsdaten genutzt werden, können Fertigungsprozesse und die Qualität der Ware verbessert werden. Durch die erhöhte Qualität sollten in der Regel geringere Rückrufquoten zu ereichen sein, wodurch das produzierende Unternehmen enorme Kosten sparen kann.

Preventive and Predictive Maintenance

Um vorausschauende oder vorbeugende Wartung durchführen zu können müssen die Maschinen oder Konsumgüter mit Sensortechnologie ausgestattet sein, welche Daten in Echtzeit erfassen und analysieren.

Mithilfe von Analysetools können Muster erkannt werden und vorausgesagt werden, wann die Maschine vermutlich das nächste Mal ausfällt. Somit kann vor Eintritt des Ausfallzeitpunktes der Maschine eine Wartung durchgeführt werden. Hiermit können enorm hohe Ausfallzeiten und Reparaturkosten vermieden werden. Zusätzlich können irreversible Fehler, welche durch Ausfall der Maschine zu Stande kommen, verhindert werden.

Simulation neuer Fertigungsprozesse

Wenn ein neuer Fertigungsprozess in der Produktion eingeführt wird, so wird dieser mithilfe von unterschiedlichen Tests auf viele Faktoren getestet. Das Risiko des Ausfalls, die Qualität der Produkte oder auch die Kosten des Prozesses sind nur einige von vielen Faktoren, welche getestet und optimiert werden. Dies kann mithilfe von unterschiedlichen Tools zur Simulation ertestet werden. Auch Virtual-Reality-Anwendungen oder digitale Zwillinge sind Möglichkeiten der Erprobung eines solches Fertigungsprozesses. Weiterhin können auch Änderungen an bereits bestehenden Prozesse hierin erprobt werden. Durch die Änderung einer Eigenschaft einer Anlage kann die Auswirkung auf den gesamten Fertigungsprozess simuliert werden.[6]

Management Lieferkettenrisiko

Bei dem Bezug von Ware mittels JIT/ JIS-Prinzip müssen Lieferanten meist enge Zeitpläne einhalten. Entlang der Lieferkette kann es jedoch häufig zu ungeplanten Ausfällen kommen. Sperrungen auf der Autobahn, Unwetter oder Unfälle sind nur einige Beispiele hierfür. Um jedoch die Produktion weiterhin am Laufen zu halten müssen Unternehmen innerhalb kürzester Zeit unterschiedliche Analysen durchführen. Mithilfe der ermitteln Ergebnisse können Reihenfolgeänderungen in der Produktion durchgeführt werden oder auch Produkte von anderen Lieferanten bezogen.[7]

Dies sind nur einige von vielen Beispielen von Big Data Anwendungen in der Fertigung. Wenn das Problem genau definiert ist und die benötigten Daten vorhanden sind bzw. beschafft werden können, lassen sich Big Data Anwendungen für die Lösung jedes Problems einsetzen.

Big Data Anwendungen: Transport

Verkehrssteuerung

Big Data können nicht nur von Unternehmen und Einzelpersonen, sondern auch von der Regierung genutzt werden. Die Regierung kann Big Data nutzen, um den Verkehr einzuschränken oder den Verkehrsfluss zu verbessern. Hierbei werden meist Echtzeitanalysen und Prognosen mit historischen Daten ausgeführt. Hinzu kommen jedoch noch zusätzliche Analysen mit schwierigen Algorithmen, welche auch Faktoren, wie Wetterbedingungen und Fahrzeuggeschwindigkeiten mit in die Berechnung einfügen. Diese Daten können nur an Straßenbetreiber übergeben werden. Besonders in der Innenstadt kann so schnell reagiert werden und beispielsweise Ampelphasen an die Verkehrslage angepasst werden.

Straßeninfrastruktur

Straßenreparatur und -entwicklung sind Probleme, mit welche jede Stadt und jedes Land zu kämpfen hat. Die Zeit von dem Auftreten eines Straßenproblems bis hin zur Behebung können durchaus mehrere Monate, wenn nicht sogar Jahre dauern. Um dieses Problem zu beheben hat sich bereits die Stadt Boston an der Nutzung einer App namens „Street Bump“ beteiligt. Diese App zeichnet Signaldaten vom Beschleunigungssensor der bostoner Autofahrer auf. Dies ermöglicht es den Benutzern der App, als auch der Stadt Boston, Stöße und Schlaglöcher in Straßen zu erkennen und rechtzeitig zu beheben.

Routenoptimierung

Die Routenoptimierung ist besonders für Unternehmen mit geringen freien Kapazitäten zwischen den Prozessen ein Segen. Produktionsunternehmen, welche auf JIT-Teile durch Lieferanten setzen können somit gewährleisten, dass die Teile rechtzeitig ankommen. Verkehrsdaten, Wetterdaten und Zustellsequenzen, werden hier bei der Analyse betrachtet und eine optimale Route errechnet. Die Analysen und Routenoptimierung finden in Echtzeit statt. Somit kann der Lieferant auf unerwartete Staus oder Unfälle reagieren und in Sekundenschnelle eine neue Route generieren.

Zusätzlich können auch andere Faktoren, wie die Empfindlichkeit der geladenen Teile oder Lebensmittel und bestimmte Temperaturen Einfluss auf die Routenoptimierung haben.[8]

Für weitere Informationen zu Big Data Anwendungen in allen Bereichen der Logistik, besuchen sie „Big Data in der Logistik“.

Big Data Anwendungen: Unterhaltung

Kundenempfehlungen

Dies ist die wohl größte Anwendung von Big Data in der Unterhaltungsbranche. Unternehmen wie Spotify, Amazon Prime und Netflix sind darauf ausgerichtet die Daten der Kunden zu nutzen. Hierbei nutzen sie vor allem Daten der Verhaltensweisen auf den Plattformen. Diese Unternehmen analysieren die Daten und geben dem Kunden Musik- und Filmempfehlungen auf Grundlage der von ihm geschauten/ gehörten Filme/ Lieder.

Big Data Anwendungen: Einzelhandel

Kundenverhaltensanalyse

Die Kundenverhaltensanalyse wird hauptsächlich verwendet um Erkenntnisse über den Kunden zu gewinnen und in Folge dessen Entscheidungen zur Verbesserung der Kundengewinnung und Kundenbindung anzuwenden. Hierfür werden Daten aus sozialen Medien, Geschäftsdaten oder auch aus der Nutzung des Kunden auf der Website entnommen. Durch die Analyse jener Daten können Erkenntnisse darüber gewonnen werden, welcher Altersgruppe die Kunden angehören und wie sich verhalten. Oder auch was sie am liebsten kaufen und wieso. Als Folge dessen können spezielle Marketingkampagnen oder auch eine Personalisierung des Geschäfts auf die Kunden durchgeführt werden.

Erhöhung der Konversionsrate

Mithilfe der Analyse von Kaufhistorien, Browserverläufen oder Daten auf Social-Media lässt sich die Konversionsrate eines Einzelhändlers erhöhen. Einzelhändler können Werbung, ausgerichtet auf die Interessen des Kunden, auf bestimmten Websiten schalten. Hierbei wäre das schalten der Werbung über beispielsweise Bio-Lebensmittel vor einem Video auf einem Food Channel auf Youtube eine gute Möglichkeit Kunden zu gewinnen. Ebenso kann der Einzelhändler messen, wie erfolgreich die von ihm angewandte Markenkampagne war.[9]

Fazit

Dies sind nur einige von vielen Branchen, welche Big Data Anwendungen nutzen. Mithilfe von Big Data und Big Data Analytics können unentdeckte Muster und Erkenntnisse gewonnen werden. Durch deren Nutzung sind Unternehmen in der Lage in jedem Teilbereich Kosten einzusparen, effizientere Prozesse zu gestalten oder auch das Risiko zu reduzieren. Mithilfe von Big Data lassen sich so gut wie alle Probleme in einem Unternehmen lösen. Letztlich ist es von den Unternehmen abhängig dieses Potentiale zu nutzen und einen Schritt in Richtung Zukunft zu gehen.

Quellenangaben

[1] Lebied, Mona (18.07.2018): „12 Examples of Big Data Analytics In Healthcare That Can Save People“, unter: (24.11.2018).

[2] Trelewicz, Jennifer Q. (17.10.2017): „Big Data and Big Money: The Role of Data in the Financial Sector“, unter: (24.11.2018).

[3] Chrisos, Marianne (19.4.2018): “How the Financial Sector Will Benefit from Big Data”, unter: (24.11.2018).

[4] „5 Dramatic Impacts of Big Data on Education“, unter: (27.11.2018).

[5] Burgess, Jan (15.09.): “4 Big Data Use Cases in the Manufacturing Industry”, unter: (27.11.2018).

[6] Bódi, Katalin (02.07.2018): “10 big data use cases in manufacturing”, unter: (27.11.2018).

[7] Burgess, Jan (15.09.): “4 Big Data Use Cases in the Manufacturing Industry”, unter: (27.11.2018).

[8] Joshi, Naveen (20.09.2017): „This is why big data in transportation is a big deal“, unter: (27.11.2018).

[9] Hitchcock, Erin (27.02.2018): „Five Big Data Use Cases for Retail“, unter: (27.11.2018).

Was ist Big-Data-Analytics?

Big-Data-Analytics zählt zu den großen Revolutionen der digitalen Transformation. Indem Sie riesige Datenbestände auf Muster untersuchen, erhalten Sie beispielsweise wichtige Consumer-Insights oder optimieren Produktionsprozesse. Erfahren Sie hier, wie Big-Data-Analytics funktioniert, was weitere Anwendungsgebiete sind und welche Technologien zum Einsatz kommen.

Schön, dass Sie hier sind! Wie Ihnen vielleicht schon aufgefallen ist, verwenden wir aus Gründen der Lesbarkeit die männliche Form in unseren Texten. Im Sinne der Gleichbehandlung meinen wir damit selbstverständlich immer alle Geschlechter (m/w/d). Und jetzt wünschen wir Ihnen viel Spaß beim Lesen.

Was ist Big Data?

Websites, Webshops, Onlinemarketing, Social Media, Internet of Things – alle diese Medien generieren riesige Mengen Daten und das in hohem Tempo und mit einer enormen Datentypen-Vielfalt. Dies fordert die IT in einem völlig neuen Ausmaß. Der Begriff Big Data bezeichnet daher Datenbestände, welche die Möglichkeiten und Grenzen der konventionellen IT übersteigen. Die Herausforderungen von Big Data lassen sich mit den folgenden vier „Vs“ beschreiben:

Volume: Riesige Datenvolumina im Bereich von Hunderten Terabytes, je nach Unternehmen sogar bis zu mehreren Exabytes (1 Mio. Terabyte). Velocity: Große Datenströme, die oftmals in Echtzeit in die Speicher fließen und zunehmend auch in Echtzeit ausgewertet werden müssen. Variety: Eine wachsende Vielfalt an Datentypen. Insbesondere nehmen die unstrukturierten Datentypen zu, wie sie in Texten, Audiofiles, Videos oder Sensordaten vorkommen. Veracity: Veracity („Wahrhaftigkeit“) bezeichnet das Problem der inhaltlichen Verlässlichkeit von Big-Data-Informationen: Sind die aus der Datenflut abgeleiteten Informationen wahrheitsgetreu?

Was ist Big-Data-Analytics?

Big-Data-Analytics ist der Oberbegriff für das Auswerten großer, dynamischer, vielfältiger Datenmengen (Big Data). Diese Tätigkeit umfasst drei Kernaufgaben, welche aufeinander aufbauen: Datenbeschaffung Datenaufbereitung Datenauswertung Diese drei Aufgaben der Big-Data-Analytics werden im Folgenden genauer erklärt.

Datenbeschaffung

Aufgrund der hohen Anzahl unterschiedlicher Datenquellen aus denen Big-Data-Analytics schöpft, ist bereits die Datenbeschaffung eine große Herausforderung. Die wichtigsten Probleme sind: Bewertung der Datenquelle anhand der vier Basiskriterien der Informationsqualität: Aktualität, Vollständigkeit, Korrektheit und Relevanz. Basierend auf den Erkenntnissen dieser Voranalyse ist zu entscheiden, ob, wie, wozu und in welchem Umfang eine Datenquelle genutzt werden soll.

anhand der vier Basiskriterien der Informationsqualität: Aktualität, Vollständigkeit, Korrektheit und Relevanz. Basierend auf den Erkenntnissen dieser Voranalyse ist zu entscheiden, ob, wie, wozu und in welchem Umfang eine Datenquelle genutzt werden soll. Erschließung der Datenquelle ; das heißt Abruf und Speicherung der Daten. Es gilt, eine effiziente und sichere Input-Pipeline einzurichten. Meistens befindet sich diese in einer Cloud und nutzt besondere Speichermodelle wie Data-Lakes.

; das heißt Abruf und Speicherung der Daten. Es gilt, eine effiziente und sichere Input-Pipeline einzurichten. Meistens befindet sich diese in einer Cloud und nutzt besondere Speichermodelle wie Data-Lakes. Datenformat für den Export bzw. die Speicherung. Ideal sind Datenformate, mit welchen Data-Scientists häufig arbeiten, zum Beispiel CSV, JSON oder XML.

bzw. die Speicherung. Ideal sind Datenformate, mit welchen Data-Scientists häufig arbeiten, zum Beispiel CSV, JSON oder XML. Update-Zyklen . Manche Informationen verlieren ihre Aktualität bereits nach wenigen Stunden oder Tagen. Entsprechend hoch muss der Datenabruf getaktet werden. Dies wiederum hat Konsequenzen für die Konstruktion der Input-Pipeline.

. Manche Informationen verlieren ihre Aktualität bereits nach wenigen Stunden oder Tagen. Entsprechend hoch muss der Datenabruf getaktet werden. Dies wiederum hat Konsequenzen für die Konstruktion der Input-Pipeline.

Datenaufbereitung

Die wenigsten Daten sind bereits im Rohzustand für die Analyse geeignet. Häufig müssen sie bereinigt werden, damit die Analyse sinnvolle und richtige Resultate ergibt: Fehlende Werte („Missing Data“) müssen identifiziert und codiert werden. Diesen Schritt setzen die meisten Analysetools zwingend voraus. Ausreißer („Outlier“), also Extremwerte weitab vom Mittelwert, sollten ausgefiltert werden, weil sie die Analyse-Ergebnisse verzerren würden. Durch Störungen in der Datenquelle oder andere Probleme können sich Fehler im Datensatz einschleichen. Diese bewirken Inkonsistenzen im Datensatz oder führen zu unplausiblen Resultaten. In der Datenaufbereitung sind diese Fehler aufzuspüren und zu beseitigen. Schließlich sollten die Daten durch Filterung auf diejenigen Bereiche eingegrenzt werden, die für die Analyse relevant sind. Dieser Schritt ist wichtig, damit die Auswertungssoftware effizient arbeiten kann.

Datenauswertung

Die gesammelten und aufbereiteten Daten werden nun mit Analysesoftware ausgewertet. Die wichtigsten Analysen sind:

Data-Mining: Mittels Verfahren der analytischen Statistik wie Regressions- oder Clusteranalyse versucht man, verborgene Zusammenhänge im Datenbestand zu erkennen. Predictive Analytics: Besondere statistische Analysemodelle erlauben es, in begrenztem Rahmen quantitative Vorhersagen abzuleiten. Machine-Learning: Anhand großer Datensätze lernt die Software, bestimmte Muster selbstständig zu erkennen und zu kategorisieren. Typische Beispiele sind Bewegungsmuster, Bilder, Videos oder Texte. Text-Mining: Analyse von Texten zu unterschiedlichen Zwecken: Auswertung von Kundenrezensionen, automatische Textzusammenfassungen, Wortanalysen usw. Business-Intelligence: Statistische Auswertungen von Geschäftskennzahlen, oftmals in Form von Dashboards dargestellt.

Neben den erwähnten Analysen gibt es noch viele weitere, die weniger bekannt sind. Im Zusammenhang mit Automatisierung und künstlicher Intelligenz (KI) kommen laufend neue Verfahren hinzu.

Die Geschichte von Big-Data-Analytics

Der Begriff „Big Data“ entstand Mitte der 1990er-Jahre. Er bezeichnete große Datenmengen, welche eine zunehmende Herausforderung für die IT darstellten. Im Jahr 2001 wurde der Begriff durch Doug Laney, damals Analyst bei Meta Group Inc., erweitert: Nicht nur die Datenmenge (Volume) ist ein Merkmal von Big Data, sondern auch die Vielfalt (Variety) der Datenstrukturen und die Geschwindigkeit (Velocity) des Datenflusses sind in die Definition einzuschließen. Die drei Faktoren Volume, Variety und Velocity wurden als „die drei Vs“ von Big Data bekannt. Später kam als zusätzlicher Aspekt die unsichere Wahrhaftigkeit (Veracity) hinzu. Ein weiterer Meilenstein in der Geschichte von Big Data war die Einführung von Hadoop, einem Framework für die verteilte Datenverarbeitung. Hadoop wurde 2006 von Apache als Open-Source-Projekt veröffentlicht. Die Bedeutung von Hadoop liegt darin, dass Big-Data-Analysen mit Standard-Hardware möglich sind: Mehrere Computer werden durch Hadoop zu einem Cluster verbunden, sodass die Rechenlast auf sie verteilt wird. Es dauerte rund fünf Jahre, bis Hadoop und verwandte Big-Data-Technologien sich in den Unternehmen etablierten. Seit circa 2011 wird Big Data auf breiter Basis genutzt. Die Pioniere waren die großen Internet- und E-Commerce-Unternehmen wie Google, Facebook und Amazon sowie die Analyse- und Marketingdienstleister. Heute ist Big-Data-Analytics in vielen Branchen fester Bestandteil der Geschäftsprozesse, so zum Beispiel bei Banken, Versicherern, Produktherstellern, Einzelhändlern, Gesundheitsorganisationen oder Energiekonzernen.

Diese Herausforderungen existieren

Auch wenn Software und Cloud-Technologien den Umgang mit Big Data erleichtern, ist die Nutzung nach wie vor mit Herausforderungen verbunden. So sind die in unstrukturierter Form gespeicherten Daten weniger leicht zugänglich als etwa Informationen in SQL-Datenbanken. Die Extraktion von Informationen aus Data-Lakes verlangt oftmals Expertenwissen.

Wenn Daten aus unterschiedlichsten Quellen stammen, ist das Beurteilen der Datenqualität schwierig. Hier stellen sich Fragen wie: Stimmen die Daten überhaupt? Woher stammen sie eigentlich? Welche Informationen sind aktuell, welche veraltet? Nicht zu unterschätzen sind die Probleme des Datenschutzes, wie sie sich seit Einführung der DSGVO in wachsendem Ausmaß stellen. Denn in der heutigen Big-Data-Welt fließen die Informationen quer über verschiedene Kontinente, Server, Cloud-Anwendungen und Analysten-Notebooks. Es wird immer komplizierter, den Schutz vertraulicher Daten durchgängig sicherzustellen. Big-Data-Analytics erfordert eine hohe Rechenleistung. Die verwendete Software muss viele Suchabfragen effizient durchführen, große Datenmengen blitzschnell importieren und in hohem Tempo verarbeiten. Parallele Bearbeitungsverfahren sind dazu unerlässlich. Zwar existieren quelloffene Software-Frameworks, welche die Verarbeitung riesiger Informationsmengen mithilfe vernetzter Clustersysteme ermöglichen – eine Herausforderung bleibt die Performance von Big-Data-Analysen trotzdem. Auch die Relevanz der Analysen stellt ein Problem dar: Oft startet die Datenanalyse explorativ, das heißt ohne genaues Ziel. Wenn durch Data-Mining interessante Beziehungen zwischen Daten gefunden werden, bedeutet dies aber noch nicht zwangsläufig, dass diese Information auch relevant ist. Die Frage, wozu Big-Data-Analytics dient, stellt sich deshalb in vielen Führungsetagen nach wie vor. Einige mögliche Antworten darauf lesen Sie nachfolgend.

Von diesen Vorteilen profitieren Sie

Die Nutzung von Big-Data-Analytics ist nur dann sinnvoll, wenn sie auf den Unternehmenserfolg einzahlt. Worin liegen die Vorteile konkret? Hier die häufigsten Antworten auf diese Frage:

Komplexität meistern

Konventionelle Business-Intelligence-Ansätze sind für einfache Datensätze gedacht. Die Auswertung erfolgt mittels beschreibender Statistik und der Analyse vorwiegend linearer Zusammenhänge. Ziel ist es, Geschäftskennzahlen abzuleiten. Die digitalisierte Welt ist aber oft zu kompliziert für diese Art der Analyse. Big-Data-Analytics meistert Komplexität besser, denn sie erschließt auch nichtlineare Optimierungspotenziale.

Automatisierung von Geschäftsprozessen

Mittels Machine-Learning können Geschäftsprozesse intelligenter gestaltet und stärker automatisiert werden. Das spart Kosten.

Beschleunigte Produktentwicklung

Dank detaillierter Daten über die Produkte und deren Nutzung können Unternehmen in viel kürzeren Zyklen Optimierungen vornehmen und Innovationen zur Marktreife bringen.

Optimierung von Einkauf und Lagerhaltung

Wenn Unternehmen ihre Warenflüsse konsequent digital erfassen und mittels Big-Data-Analytics auswerten, können sie die benötigten Lager- und Transportkapazitäten exakter steuern und Kosten einsparen.

Mehr Sicherheit dank Frühwarnsystemen

Big-Data-Analytics eignet sich dazu, auf Basis von künstlicher Intelligenz Frühwarnsysteme zu konstruieren, welche drohende Störungen und Ausfälle schon lange im Voraus erkennen können.

Stärkere Kundenbindung

Wird Big-Data-Analytics für die personalisierte Ansprache und für individualisierte Dienstleistungen benutzt, so kann das Unternehmen damit die Kundenbindung steigern und den Kundenwert erhöhen.

Schnellere Informationen

Dank der Geschwindigkeit moderner Systeme für Big-Data-Analytics können Unternehmen ihre Geschäftsdaten praktisch in Echtzeit umfassend analysieren. Dies ermöglicht es, bessere Entscheidungen schneller zu treffen.

Welche Anwendungsgebiete es gibt

Big-Data-Analytics umfasst eine fast unüberschaubare Anzahl von Anwendungsgebieten. Hier einige besonders typische Beispiele:

Consumer-Insights

Mit Big-Data-Analytics können Unternehmen eine 360-Grad-Ansicht auf das Verhalten und die Motivation ihrer Kundinnen und Kunden gewinnen. Dazu sammeln sie unter anderem Informationen aus: Onlinekäufen

Surfverhalten

Reaktionen auf Marketingaktivitäten

Social-Media-Beiträgen

Rezensionen

direkten Kundenkontakten via Chat, Telefon und E-Mail

aus Umfragen

App-Daten Hieraus leiten die Unternehmen Einblicke (Consumer-Insights) ab, die sie für verbesserte Produkte, Innovationen und zahlreiche Marketingmaßnahmen nutzen.

Onlinemarketing

Das Onlinemarketing definiert anhand von Big-Data-Analytics Kundensegmente, Zielgruppen („Targeting“) und Werbebotschaften („Messaging“). Auf der Website können basierend auf Datenanalysen auch individuell auf den jeweiligen Besucher angepasste Inhalte angezeigt werden („Behaviour Based Offering“).

Personalisierte Plakatwerbung

Spannende Anwendungsmöglichkeiten ergeben sich auch im Bereich „Digital-Out-of-Home“ (DOOH): Versteckte Sensoren an den digitalen Plakaten erfassen in Echtzeit die Menschen, welche davor stehen. Der Algorithmus entscheidet, welche Werbung für diese Menschen angezeigt wird.

Betrugsdelikte identifizieren und bekämpfen

Eines der besten und frühesten Beispiele für Big-Data-Analytics ist die Betrugsbekämpfung der Kreditkartenfirmen: Diese sammeln über einen längeren Zeitraum viele Daten über die Nutzung einer Kreditkarte. Daraus errechnet der Algorithmus ein kundenindividuelles „Normalnutzungsmuster“. Wenn nun untypische Ausgaben registriert werden, die nicht zu diesem Muster passen, schlägt der Computer Alarm und das Callcenter der Kreditkartengesellschaft meldet sich beim Kunden, um den Fall abzuklären.

Prozessanalysen

Heute können Prozesse jeglicher Art mittels Kameras, Logfiles und Sensoren lückenlos erfasst werden. Auf diese Weise ist es möglich, den Ablauf genauestens zu analysieren und Ineffizienzen aufzuspüren. Big-Data-Analytics erarbeitet also Einblicke, wo Kosten und Zeit gespart werden könnten. Ebenso kann eine Firma die Qualität ihrer Produkte verbessern und die Ausschussmenge verringern.

Künstliche Intelligenz

Mit Machine-Learning kann man einem Computer beibringen, bestimmte „intelligente“ Tätigkeiten auszuüben. So übernehmen zum Beispiel kollaborative Roboter Fertigungsaufgaben Seite an Seite mit menschlichen Arbeitskräften. Und in immer mehr Lagerhallen kommen Palettier- und Transportroboter zum Einsatz.

Preisoptimierung

Wenn genau bekannt ist, zu welchem Zeitpunkt die Kundschaft einen bestimmten Preis akzeptiert, kann ein Anbieter mittels dynamischer Preisgestaltung seinen Umsatz maximieren.

Diese Technologien und Tools kommen zum Einsatz

Big-Data-Analytics schöpft aus einer Vielzahl von technologischen Hilfsmitteln und Konzepten. Einige der wichtigsten davon sind:

Hadoop

Hadoop ist ein Open-Source-Framework für das Speichern und Verarbeiten großer Datenmengen. Es wurde von Google basierend auf dem Map-Reduce-Algorithmus entwickelt, um rechenintensive Prozesse bis zu mehreren Petabytes zu bewältigen. Dies gelingt vor allem dadurch, dass die Datenmenge auf mehreren Computer verteilt bearbeitet wird (Parallelisierung).

Speichermodelle

Big Data hat neue Speichermodelle hervorgebracht, welche das konventionelle Data-Warehouse um Lösungen für unstrukturierte Daten ergänzen: Data-Lakes („Datenseen“) nehmen jegliche Art von Daten auf, ohne ein Dateiformat oder eine Ablagestruktur vorzuschreiben. Das Ordnen, Strukturieren, Bereinigen und Filtern der Daten erfolgt erst beim Abruf (Datenextraktion).

(„Datenseen“) nehmen jegliche Art von Daten auf, ohne ein Dateiformat oder eine Ablagestruktur vorzuschreiben. Das Ordnen, Strukturieren, Bereinigen und Filtern der Daten erfolgt erst beim Abruf (Datenextraktion). No-SQL-Datenbanken sind nichtrelational und können deshalb auch unstrukturierte Rohdaten aufnehmen. Zudem eignen sie sich gut für die Arbeit mit großen Mengen verteilter Daten.

sind nichtrelational und können deshalb auch unstrukturierte Rohdaten aufnehmen. Zudem eignen sie sich gut für die Arbeit mit großen Mengen verteilter Daten. Distributed-Storage-Systeme replizieren Daten auf mehreren Speichern, in der Regel nichtrelationale Datenbanken. Dies dient einerseits dem schnelleren Zugriff (Parallelisierung) und schützt andererseits auch vor Ausfällen, wenn einzelne Knoten im Big-Data-Cluster beschädigt sind.

Stream-Analytics-Tools

Immer häufiger werden kontinuierlich fließende Datenströme ausgewertet, unter anderem Wetterdaten oder Informationen von Sensoren. Bekannte Tools für das Auswerten von kontinuierlichen Datenströmen sind Spark Streaming, Apache Flink und Apache Storm.

Datenaufbereitungssoftware

Bei der Datenaufbereitungssoftware unterscheidet man zwischen diesen Unterkategorien: Datenvorbearbeitungssoftware dient dazu, Daten zu formatieren und zu bereinigen.

dient dazu, Daten zu formatieren und zu bereinigen. Datenqualitätssoftware hat die Aufgabe, die Integrität der Daten zu prüfen und diese von Elementen zu befreien, welche die Analyse beeinträchtigen könnten: Ausreißer, unplausible Informationen, veraltete Daten und Ähnliches.

hat die Aufgabe, die Integrität der Daten zu prüfen und diese von Elementen zu befreien, welche die Analyse beeinträchtigen könnten: Ausreißer, unplausible Informationen, veraltete Daten und Ähnliches. Datenvirtualisierung ermöglicht einen Datenzugriff ohne technische Einschränkungen.

ermöglicht einen Datenzugriff ohne technische Einschränkungen. Datenintegrationssoftware dient dazu, Big Data über diverse Plattformen hinweg zu rationalisieren.

In-Memory-Analyse

Würde die Analysesoftware ihre Daten von der Harddisk lesen oder sogar übers Internet beziehen, wäre die Auswertung sehr langsam. Deshalb laden die neueren Tools den Datensatz vollständig in den schnellen Arbeitsspeicher (RAM) des Computers. Wenn die Datenmenge die Kapazität eines Rechners übersteigt, kommt die In-Memory-Data-Fabric zum Zuge, welche das RAM mehrerer Rechner zu einem Cluster zusammenschließt.

Data-Mining

Data-Mining-Software dient dem Ziel, Muster in den Daten zu erkennen: verborgene Beziehungen, wiederkehrende Patterns, vom Auge nicht feststellbare Abweichungen und andere wertvolle Informationen.

Text-Mining

Kundenrezensionen, Social-Media-Beiträge, Chat-Verläufe, E-Mails und andere Texte fallen in derart großer Menge an, dass sie nicht mehr von Menschenhand ausgewertet werden können. Um diese Textdaten nutzbar zu machen, setzen Unternehmen Text-Mining-Tools ein. Diese dienen dazu, Textinhalte nach Themen zu kategorisieren, zu verschlagworten, die „Stimmung“ einzuschätzen (Sentiment-Analysis) oder sogar automatisch eine Zusammenfassung des Textes zu schreiben.

Machine-Learning

Machine-Learning gilt als Königsdisziplin der Big-Data-Analytics: Anhand zahlreicher Beispiele lernt der Computer, bestimmte Daten korrekt zu interpretieren. Bekannte Anwendungen von Machine-Learning sind: Google Lens , welche Gegenstände, Pflanzen und andere Objekte anhand des Kamerabildes benennt.

, welche Gegenstände, Pflanzen und andere Objekte anhand des Kamerabildes benennt. Amazon Alexa , welche natürlichsprachige Äußerungen des Menschen interpretiert.

, welche natürlichsprachige Äußerungen des Menschen interpretiert. Bilddatenbanken , welche mit Machine-Learning die Bildinhalte analysieren und das Bild entsprechend verschlagworten.

, welche mit Machine-Learning die Bildinhalte analysieren und das Bild entsprechend verschlagworten. Google Suggest , welches schon während der Sucheingabe herausfindet, was der User will, und passende Suchbegriffe vorschlägt.

, welches schon während der Sucheingabe herausfindet, was der User will, und passende Suchbegriffe vorschlägt. Webshop-Empfehlungen, die aufgrund des typischen Kundenverhaltens feststellen, welche Produktempfehlungen für den jeweiligen User am erfolgreichsten sein werden.

Predictive-Analytics-Software

Basierend auf vorhandenen Daten berechnet Predictive-Analytics-Software die Wahrscheinlichkeit künftiger Ereignisse. Auf diese Weise ist es möglich, die voraussichtlich benötigte Warenmenge an einem bestimmten Tag zu errechnen oder den Umsatz einer neuen Produktvariante vorherzusagen.

Cloud-Plattformen

Big Data ist ohne Cloud-Plattformen undenkbar. Clouds sind notwendig, um die gigantischen Datenmengen effizient zu speichern und abzurufen. Auch die erforderliche Rechenleistung kann kaum noch kostendeckend On-Premises bereitgestellt werden. Beispielsweise wäre es nicht sinnvoll, einen Server mit einem Terabyte Arbeitsspeicher anzuschaffen, um einen einzelnen, besonders großen Datensatz zu analysieren. Deshalb bezieht man die Rechenleistung für Big-Data-Analytics häufig flexibel über einen externen Provider.

Service-Provider stellen Ihrem Unternehmen eine Vielzahl von IT-Dienstleistungen zur Verfügung. Das reicht von IT-Security über Softwareentwicklung bis hin zu kompletten Cloud-Lösungen. Sie wollen mehr über einen Service-Provider wissen? Dann lesen Sie folgenden Beitrag: Was ist ein Service-Provider und wie unterstützt er Ihr Unternehmen?

Vier Tipps für Ihr Big-Data-Projekt

Damit Ihre Big-Data-Analyse gelingt, sollten Sie die folgenden vier Best Practices berücksichtigen.

1. Starten Sie mit einem Business-Problem im Hinterkopf

Big-Data-Analytics ist sowohl personal- als auch kostenintensiv. Deshalb muss der finanzielle Nutzen des Projektes klar erkennbar sein. Finden und formulieren Sie Fragestellungen, welche aus Business-Sicht relevant sind, zum Beispiel: Welche Bedürfnisse wird unsere Kundschaft morgen haben?

Wie können wir unsere Lagerhaltung reduzieren?

Wo müssen wir unseren Webshop optimieren, um die Conversion-Rate zu erhöhen?

Was lernen wir aus den Rezensionen und Reklamationen unserer Kundschaft? Definieren Sie das Big-Data-Projekt von Anfang an als die Lösung eines konkreten Problems. Auf diese Weise überzeugen Sie Ihre Stakeholder und bringen das Data-Analytics-Team auf Kurs.

2. Überlegen Sie von Anfang an, wie Sie die Resultate kommunizieren

Jede gute Analyse beginnt beim Report. Nur wenn Sie sich zuerst überlegen, wem Sie in der Firma welche Erkenntnisse vermitteln müssen, können Sie zielgerichtet analysieren. Dies betrifft einerseits die verschiedenen Hierarchiestufen, andererseits die Fachbereiche, welche von Ihren Erkenntnissen profitieren sollen: Marketing

Produktentwicklung

Vertrieb

Finanzabteilung

Kundendienst Stellen Sie sich die Frage: „Welche Informationen benötigen diese Menschen?“ Nicht immer sind Datencharts die Antwort! Oftmals geht es um qualitative Informationen wie Rankings, Profile, Wenn-Dann-Logiken oder Top-Ten-Listen.

3. Setzen Sie eine Vielfalt von Instrumenten ein

Die Zahl der Analytics-Tools ist in den letzten Jahren förmlich explodiert: Python, R, MATLAB, Hive, Groovy, Scala, SQL, SAS, KNIME, Orange und weitere Softwareprodukte stehen zur Verfügung – viele von ihnen als kostenlose Open-Source-Anwendungen. Nutzen Sie diese Vielfalt! Denn für jede Aufgabe, jeden Datensatz und jeden Analyseschritt existieren jeweils besonders effiziente Programme. Zudem haben Analysten ganz unterschiedliche Arbeitsstile.

4. Finden Sie die Balance zwischen Automatisierung und Expertise

Software ersetzt keine Menschen, sondern bloß bestimmte Arbeitsschritte. Setzen Sie deshalb Softwaretools gezielt dazu ein, Ihre Data-Analysts von Routineaufgaben zu entlasten. Aber versuchen Sie nicht, die menschliche Expertise durch Algorithmen zu ersetzen! Am meisten profitieren Sie von Big-Data-Software, wenn Sie sie „kollaborativ“ verwenden: zur Unterstützung der menschlichen Expertinnen und Experten.

Schaffen Sie Ihre Big-Data-Umgebung mit der ahd!

Wo beginnt Big Data? Ist Ihre Anwendung reif für den Wandel?

Teil 1 unserer Reihe zu Big Data:

Sie nutzen eine Anwendung, in der sich große Datenmengen angesammelt haben – wahrhaft gewaltige Volumina. Doch kann man schon von Massendaten sprechen? Gar nicht so leicht zu sagen, ob die Schwelle zur modernen – und manchmal beängstigenden – Big-Data-Welt schon überschritten wurde. Denn wo liegt die eigentlich? Bei 10.000 Datensätzen? Zehn Millionen? Einem Terabyte Daten?

Die Antwort lässt sich nicht einfach auf eine Zahl herunterbrechen. Das Datenvolumen ist zweifellos ein wichtiger Faktor. Doch darüber hinaus muss die Komplexität der Daten bedacht werden. Sie müssen wissen, wie schnell neue Datensätze eingehen – und wie schnell die Daten Benutzern zur Verfügung stehen sollen, ist ebenfalls ausschlaggebend.

Big Data – einfache Definition

Michael Driscoll, der Gründer und CEO von Metamarkets, definiert Big Data ganz einfach als Daten, die verteilt sind. Für ihn ist die Schwelle im Prinzip schon dann überschritten, wenn die Daten nicht mehr auf einem einzigen Computer gespeichert werden können. Er erklärt Big Data an diesem Diagramm:

Klasse Größe Verwaltung mit Benötigter Speicherplatz Beispiele Klein <10 GB Excel, R Arbeitsspeicher eines Rechners Tausende von Umsatzzahlen Mittel 10 GB – 1 TB indizierten Dateien, monolithischer Datenbank Festplattenspeicher eines Rechners Millionen von Webseiten Groß > 1 TB Hadoop, verteilten Datenbanken Auf mehreren Rechnern gespeichert Milliarden von Internetkontakten

Eine andere gängige Definition lautet: Die Schwelle zu Big Data ist erreicht, wenn die bestehenden Techniken und Technologien zur Datenverwaltung nicht mehr ausreichen. Konkreter: Wenn die Daten nicht mehr auf normale Festplatten passen, die Rechenleistung nachlässt, Suchen oder Analysen zu lange dauern, Server überhitzen, neue Datensätze schneller generiert werden, als sie transferiert werden können usw. Dann braucht es modernere Techniken und Technologien – Open-Source-Produkte wie Spark oder Hadoop, ETL-Prozessmethoden, einen ausgefeilteren Lastausgleich, intelligentere Such-Tools usw.

Bei beiden Definitionen ist der Ausgangspunkt recht simpel. Da jedoch verteilte, cloudbasierte Architekturen heute (aus Komfort- und Kostengründen) allgegenwärtig sind, verwischen die Grenzen zwischen den Größenordnungen „Mittel“ und „Groß“. Den einen Moment, in dem Ihr Server nicht mehr ausreicht, alle Datensätze zu verarbeiten und ab dem Sie zu einer verteilten Architektur wechseln müssen, wird es nicht geben. Es wird nicht plötzlich jemand im Unternehmen feststellen, dass Sie „jetzt aber wirklich“ Big Data haben. Stattdessen wird das Wachstum inkrementell verlaufen, von einigen AWS-Servern hin zu mehr und mehr Rechenleistung und Speicherkapazität. Und eines Tages werden Sie den Schritt zu Big Data vollzogen haben, ohne dass Sie es gemerkt haben.

Die „4 V“ von Big Data

Was die Definition von Big Data betrifft, ist unter Branchenkennern oft auch die Rede von den 4 V: Volume (Volumen), Variety (Vielfalt), Velocity (Geschwindigkeit) und Veracity (Wahrhaftigkeit). Was es damit auf sich hat, wird auf IBM Big Data & Analytics Hub in einer hilfreichen Infografik erläutert:

Volume meint die Datenmenge, Variety bezieht sich auf Formen und Strukturen der Daten. Velocity beziffert die Geschwindigkeit, mit der neue Daten eingehen und nutzbar gemacht werden müssen. Veracity schließlich ist das Maß für die Genauigkeit und Vertrauenswürdigkeit der Daten. Wie dieses Diagramm von Data Science Central zeigt, kann eine beliebige Kombination der ersten drei Faktoren dazu führen, dass eine Anwendung die Schwelle zur Big-Data-Sphäre überschreitet.

Doch was bedeutet all das eigentlich? Was kommt auf uns zu? Das Unternehmen Cloudtweaks beziffert in diesem faszinierenden Artikel nebst Infografik die Rate, mit der neue Informationen generiert werden, mit 2,5 Trillionen Byte Daten pro Tag. Das ist eine 2,5 gefolgt von 18 Nullen! Es wird also nicht mehr lange dauern, bis alle Systeme oder Anwendungen, die wir nutzen, nach Big-Data-Prinzipien arbeiten müssen. Vielleicht erübrigt sich da die Frage, wo genau die Big-Data-Schwelle liegt, und ob Ihre Daten einfach Daten oder BIG DATA sind. Fragen Sie sich stattdessen doch einmal, ob Ihre Systeme, Applikationen, Technologien, Such-Tools und Ihre Infrastruktur für die aktuellen Datenmengen und die Bedürfnisse Ihrer Benutzer ausgelegt sind. Oder belegen Ihre Daten lediglich wertvollen Server-Speicherplatz?

In den kommenden Artikeln unserer Reihe zum Thema Big Data gehen wir auf diese Frage näher ein. Wir untersuchen, wie Sie das Optimum aus Ihren Massendaten herausholen, was Big Data für das Reporting bedeutet, wie ERP-Systeme helfen können, Daten effektiv zu verarbeiten, und welche Tools und Techniken Sie schon jetzt nutzen können, um Ihre Systemleistung zu verbessern.

Lesen Sie hier in Kürze Teil 2: Wie Big Data das Reporting verändert.