Aldrige, I. (2010). High Frequency Trading. A Practical Guide to Algorithmic Strategies and Trading. New Jersey: Wiley.
Anderson, C. (2013). Das Ende der Theorie. Die Datenschwemme macht wissenschaftliche Methoden obsolet. In H. Geiselberger & T. Moorstedt (Hrsg.), Big Data: Das neue Versprechen der Allwissenheit (S. 124-131). Berlin: Süddeutscher Verlag.
Anthony, S. (2016). The secret world of microwave networks. Ars Technica 3.11.2016. Zugegriffen: 12. November 2016.
Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Berlin: Springer.
Penner, E., Stienecker, M., Waider, S., & Töns, A. (2015). Big Data im Gesundheitswesen. Zugegriffen: 12. Oktober 2016.
Böhme, G. (2008). Invasive Technisierung – Technikphilosophie und Technikkritik. Kusterdingen: Die Graue Edition.
Böschen, S., Huber, G., & König, R. (2016). Algorithmische Subpolitik: Big Data als Technologisierung kollektiver Ordnungsbildung? Berliner Debatte Initial 27(4), 66-76.
Boyd, D., & Crawford, K. (2013). Big Data als kulturelles, technologisches und wissenschaftliches Phänomen. In H. Geiselberger & T. Moorstedt (Hrsg.), Big Data. Das neue Versprechen der Allwissenheit (S. 187-218). Berlin: Süddeutscher Verlag.
Budish, E., Cramton, P., & Shim, J. (2015). The High-Frequency Trading Arms Race: Frequent Batch Auctions as a Market Design Response. The Quarterly Journal of Economics 130(4), 1547-1621.
Han, B. (2012). Transparenzgesellschaft. Berlin: Matthes und Seitz.
Chen, M., Mao, S., Zhang, Y., & Leung, V. C. (Hrsg.). (2014). Big Data. Related Technologies, Challenges and Future Prospects. Heidelberg: Springer.
CME (2017). CME Co-Location Facility. Zugegriffen: 12. November 2016.
Dreyfus, H. L., & Dreyfus, S. E. (1987). Künstliche Intelligenz – Von den Grenzen der Denkmaschine und dem Wert der Intuition. Reinbek bei Hamburg: Rohwolt.
Dutcher, J. (2014). What is Big Data? Zugegriffen: 12. November 2016.
Ester, M., & Sander, J. (2000). Knowledge Discovery in Databases. Techniken und Anwendungen. Berlin: Springer.
Eurex (2016a). Co-location Services. Zugegriffen: 12. November 2016.
Eurex (2016b). Eurex Exchange vollständig auf neue, moderne Handelsarchitektur migriert. Zugegriffen: 12. November 2016.
Fayyad, U. M., Piatetsky-Shapiro, G., & Smyth, P. (1996). From Data Mining to Knowledge Discovery in Databases. AI Magazine 17(3), 37-54.
CFTC & SEC (2010). Findings regarding the Market Events of May 6, 2010. Report of the Staffs of the CFTC and SEC to the Joint Advisory Committee on Emerging Regulatory Issues. http://www.sec.gov/news/studies/2010/marketevents-report.pdf. Zugegriffen: 12. November 2016.
García, A. O., Bourov, S., Hammad, A., van Wezel, J., Neumair, B., Streit, A., Hartmann, V., Neuberger, P., & Stotzka, R. (2011). The Large Scale Data Facility: Data Intensive Computing for scientific experiments. Proceedings of The 12th IEEE International Workshop on Parallel and Distributed Scientific and Engineering Computing. IEEE Computer Society 2011, 1467-1474.
Goel, A. K., Josephson, J. R., Fischer, O., & Sadayappan, P. (1995). Practical abduction: characterization, decomposition and concurrency. Journal of Experimental and Theoretical Artificial Intelligence 7(4), 429-450.
González-Bailón, S. (2013). Social Science in the Era of Big Data. Policy and Internet 5(2), 147-160.
Gramelsberger, G. (2010). Computerexperimente. Zum Wandel der Wissenschaft im Zeitalter des Computers. Bielefeld: Transcript.
Gransche, B., Shala, B., Hubig, C., Alpsancar, S., & Harrach, S. (2014). Wandel von Autonomie und Kontrolle durch neue Mensch-Technik-Interaktionen. Grundsatzfragen autonomieorientierter Mensch-Technik-Verhältnisse. Stuttgart: Fraunhofer Verlag.
Gregoriou, G. N. (2015). The Handbook of High Frequency Trading. London: Academic Press.
Gresser, U. (2016). Praxishandbuch Hochfrequenzhandel, Bd 1. Wiesbaden: Springer.
Gsell, M. (2010). Essays on Algorithmic Trading. Hannover: Ibidem-Verlag.
Hanson, N. R. (1958). Patterns of Discovery: An Inquiry into the Conceptual Foundations of Science. Cambridge: Cambridge University Press.
Harrach, S. (2014). Neugierige Strukturvorschläge im maschinellen Lernen – Eine technikphilosophische Verortung. Bielefeld: Transcript.
Hartenstein, H., Mickel, K.-P., & Nussbaumer, M. (Hrsg.). (2009). Informationstechnologie und ihr Management im Wissenschaftsbereich. Festschrift für Prof. Dr. Wilfried Juling. Karlsruhe: KIT.
Hood, L. (2016). Hundert Jahre alt werden und dann ganz schnell sterben (Interview). FAZ v. 03.02.2016, Natur und Wissenschaft, S. 1.
Hubig, C. (2006). Die Kunst des Möglichen I: Grundlinien einer dialektischen Philosophie der Technik. Bd 1: Technikphilosophie Als Reflexion der Medialität. Bielefeld: Transcript.
Hubig, C. (2007). Ubiquitous Computing – Eine neue Herausforderung für die Medienethik. International Review of Information Ethics 8(12), 28-35.
Janich, P. (2006). Kultur und Methode – Philosophie in einer wissenschaftlich geprägten Welt. Frankfurt a. M.: UTB.
Johnson, B. (2010). Algorithmic Trading and DMA: An introduction to direct access trading strategies. London: Myeloma Press.
Johnson, D. (1985). Computer Ethics. Englewood Cliffs: Prentice-Hall.
Kaminski, A., & Harrach, S. (2010). Do abductive machines exist? Proposal for a multi-level concept of abduction. In Proceedings of ecap10: 8th European Conference on Philosophy and Computing (482-487). München: Dr. Hut.
Kaminski, A. (2012). Wie entsteht Software? Übersetzungen zwischen vertrautem Kontext und formalem System: Die heiße Zone des Requirements Engineerings. In C. Schilcher & M. Will-Zocholl (Hrsg.), Arbeitswelten in Bewegung (S. 85-123). Wiesbaden: Springer.
Karang, R. K. (2013). Inside the Black Box. A Simple Guide to Quantitative and High-Frequency Trading. New Jersey: Wiley.
Langkafel, P. (2016). Big Data in medical Science and Healthcare Manangement. Berlin: De Gruyter.
Lemke, H. U., & Berliner, L. (2012). Der digitale Operationssaal – Stand und zukünftige Entwicklungsphasen. In W. Niederlag, H. U. Lemke, G. Strauß & H. Feußner (Hrsg.), Der digitale Operationssaal. Methoden, Werkzeuge, Systeme, Applikationen und gesellschaftliche Aspekte (S. 13-19). Dresden: De Gruyter.
Luger, G., & Stern, C. (1993). Expert Systems and the Abductive Circle. In R. J. Jorna, B. van Heusden & R. Posner (Hrsg.), Signs, Search and Communication. Semiotic Aspects of Artificial Intelligence (S. 151-171). Berlin: De Gruyter.
Mainzer, K. (2014). Die Berechnung der Welt – Von der Weltformel zu Big Data. München: C.H. Beck.
Mainzer, K. (2016). Zur Veränderung des Theoriebegriffs im Zeitalter von Big Data und effizienten Algorithmen. Berliner Debatte Initial 27(4), 22-34.
MacKay, D. J. C. (2003). Information Theory, Inference and Learning Algorithms. Cambridge: Cambridge University Press.
Manovich, L. (2014). Trending. Verheißungen und Herausforderungen der Big Social Data. In R. Reichert (Hrsg.), Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie (S. 65-83). Bielefeld: Transcript.
Manzeschke, A. (2014). Digitales Operieren und Ethik. In W. Niederlag, H. U. Lemke, G. Strauß & H. Feußner (Hrsg.), Der digitale Operationssaal (S. 227-250). Berlin: De Gruyter.
Manzeschke, A., Assadi, G., & Viehöver, W. (2015). The Role of Big Data in Ambient Assisted Living. IRIE 24(5), 22-31.
Mayerl, J. (2015). Bedeutet „Big Data“ das Ende der sozialwissenschaftlichen Methodenforschung? Soziopolis. Zugegriffen: 12. November 2016.
Mayerl, J., & Zweig, K. A. (2016). Digitale Gesellschaft und Big Data: Thesen zur Zukunft der Soziologie. Berliner Debatte Initial 27(4), 77-83.
Mayer-Schönberger, V., & Cukier, K. (2013). Big Data, die Revolution, die unser Leben verändern wird. München: Redline.
McNulty, E. (2014). Understanding Big Data: The Seven Vs. Zugegriffen: 12. November 2016.
Mooney, S. J., Westreich, D. J., & El-Sayed, A. M. (2015). Commentary: Epidemiology in the Era of Big Data. Epidemiology 26(3), 309-394.
Müller-Jung, J. (2016). Der Anfang einer digitalen Wohlfühl-Utopie. FAZ vom 03.02.2016, Natur und Wissenschaft.
Müller-Jung, J. (2013). Wird Big Data zur Chiffre für den digitalen GAU? FAZ vom 06.03.2013, Natur und Wissenschaft, S. 1.
National Highway Traffic Safety Administration, Office of Defects Investigations, U.S. (NHTSA) (2017). ODI Resume – Investigation: PE 16-007. Zugegriffen: 20. Januar 2017.
Niederlag, W., Lemke, H., Strauß, G., & Feußner, H. (Hrsg.). (2014). Der digitale Operationssaal. Berlin: De Gruyter.
Peirce, C. S. (1998). Collected Papers of Charles Sanders Peirce, Reprint of the Edition 1931-1958. Vol 1-6 hg von , 1931-1935. von C. Hartshorne & P. Weiss (Hrsg.), vol. 7-8 hg. von A.W. Burks, Cambridge: Harvard University Press.
Püschel, F. (2014). Big Data und die Rückkehr des Positivismus. Zum gesellschaftlichen Umgang mit Daten. In M. Burkhardt & S. Gießmann (Hrsg.), Mediale Kontrolle 3.1/2014 (S. 1-23).
Reckter, B. (2016). Big Data unterstützt das Team im Operationssaal. VDI Nachrichten vom 15.1.2016, Ausgabe 01. Zugegriffen: 12. November 2016.
Rheinberger, H. (2007). Wie werden aus Spuren Daten, und wie verhalten sich Daten zu Fakten? Nach Feierabend – Zürcher Jahrbuch für Wissensgeschichte 3, 117-125.
Richter, P. (2016). Big Data. In J. Heesen (Hrsg.), Handbuch Medien- und Informationsethik (S. 210-216). Stuttgart: Springer.
Ritschel, G., & Müller, T. (2016). Big Data als Theorieersatz? Berliner Debatte Initial 27(4), 4-11.
Roßnagel, A. (2013). Big Data – Small Privacy? Zeitschrift für Datenschutz 3(11), 562-567.
Röhle, T. (2014). Big data – Big Humanities? Eine historische Perspektive. In: R. Reichert (Hrsg.), Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie (S. 157-172). Bielefeld: Transcript.
Sachsse, H. (1972). Technik und Verantwortung. Probleme der Ethik im technischen Zeitalter. Freiburg i. Br.: Rombach.
Schurz, G. (1995). Die Bedeutung des abduktiven Schließens in Erkenntnis- und Wissenschaftstheorie. Zugegriffen: 20. September 2016.
Seidler, C. (2012). Neutrino-Experiment. Loses Kabel blamiert Teilchenphysiker. http://www.spiegel.de/wissenschaft/natur/neutrino-experiment-loses-kabel-blamiert-teilchenphysiker-a-817077.html. Zugegriffen: 30. Juni 2016.
Simanowski, R. (2014). Data Love. Berlin: Matthes & Seitz.
Staun, H. (2014). Wie wir gerne leben sollen – Big Data & Social physics. Zugegriffen: 30. Juli 2016.
Steinebach, M., Halvani, O., Schäfer, M., Winter, C., & Yannikos, Y. (2014). Big Data und Privatheit. Darmstadt: Fraunhofer.
Steinbuch Centre for Computing (SCC) (2007). SCIENTIFIC COMPUTING, HPC AND GRIDS. Karlsruhe: KIT.
Thagard, P. (1988). Computational Philosophy of Science. Cambridge: MIT Press.
Toprak, C. (2011). System: maschinelles Lernen. In M. Mühlhäuser, W. Sesink, A. Kaminski & J. Steimle (Hrsg.), IATEL. Interdisciplinary Approaches to Technology-enhanced Learning (S. 229-234). Münster: Waxmann.
UK Government Office for Science (2012). High frequency trading – assessing the impact on market efficiency and integrity. http://mbsportal.bl.uk/secure/subjareas/accfinecon/bis/14064812_1061_dr28_efficiency.pdf. Zugegriffen: 12. November 2016.
Van Est, R., & Stemerding, D. (2012). Making Perfect Life – European Governance Challenges in 21st Century Bio-engineering. Brussels: European Parliament.
Venturini, T., Latour, B., & Meunier, A. (2015). Eine unerwartete Reise. Einige Lehren über die Kontinuität aus den Erfahrungen des Sciences Po médialab. In F. Süssenguth (Hrsg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 17-39). Bielefeld: Transcript.
Wadephul, C. (2016). Führt Big Data zur abduktiven Wende in den Wissenschaften? Berliner Debatte Initial 27 (4), 35-49.
Weston, H. (2016). Data Analytics as Predictor of Character or Virtues, and the Risks to Autonomy. IRIE 24(5), 32-43.
Wiegerling, K. (2005). Szenarien Gesundheit. In J. Heesen, C. Hubig, O. Siemoneit & K. Wiegerling (Hrsg.), Leben in einer vernetzten und informatisierten Welt. Context-Awareness im Schnittfeld von Mobile und Ubiquitous Computing. Nexus Schriftenreihe, SFB 627 Bericht Nr. 2005/05. http://informatik.uni-stuttgart.de/pub/library/ncstrl.ustuttgart_fi/SFB627-2005-05/SFB627-2005-05.pdf. Zugegriffen: 30. Juni 2017.
Wiegerling, K. (2011). Philosophie intelligenter Welten. München: Wilhelm Fink.
Wiegerling, K. (2012). Der technische aufgerüstete Mensch und die Frage nach der Gesundheit. In C. Hoffstadt, F. Peschke, M. Nagenborg & S. Müller (Hrsg.), Dualitäten – Aspekte der Medizinphilosophie (S. 137-154). Bochum: Projektverlag.
Die Fakultät Informatik hat ein skalierbares System entwickelt, in dem verschiedene gängige Software-Komponenten an einem gemeinsamen Anwendungsfall auf echten Daten arbeiten. Seit Anfang 2013 steht Lehrenden und Studierenden dafür ein leistungsfähiges High-Performance-Clusters (HPC) für umfangreiche Datenanalysen zur Verfügung. In den vergangenen Semestern sind bereits mehrere, teilweise ausgezeichnete Bachelor- und Masterthesen entstanden. In seiner von der Fördergesellschaft der Hochschule Furtwangen ausgezeichneten Abschlussarbeit „Analyse und Implementierung einer Big Data-Architektur auf einem Computercluster“ entwickelte Tim Schmiedl die Plattform Lioncub. Neben der Basistechnologie Apache Hadoop werden das verteilte Datenbanksystem HBase und der Streaming-Framework Storm genutzt.
Als leistungsfähige Referenzplattform für Big Data-Technologien wird Lioncub an der Fakultät kontinuierlich ausgebaut und optimiert. Derzeit verwaltet die Plattform Lioncub über eine Million Artikel aus sozialen Netzwerken und Nachrichtenportalen und macht sie über eine Web-Oberfläche verfügbar. Nach Eingabe eines Stichwortes werden die Dokumente durchsucht und die Ergebnisse innerhalb weniger Sekunden in Form von Diagrammen oder URL-Listen aufgezeigt. Dieser Anwendungsfall steht jedoch nicht im Zentrum von Lioncub. Lioncub stellt vielmehr eine Forschungsplattform der Fakultät für innovative Software aus dem Big Data-Umfeld dar. Bereits mit geringem Aufwand ist es möglich, andere Anwendungsfälle umzusetzen. So können etwa Daten aus dem CAN-Bus von Autos ausgelesen und mit Hilfe von Lioncub vergleichende Rückschlüsse über das Fahrverhalten des Fahrers gezogen werden.
Die Fakultät wird das HPC in den kommenden Jahren kontinuierlich ausbauen; eine erste Ausbaustufe erfolgt gerade. Das HPC bietet großes Potential für Lehre und Forschung: Es ist davon auszugehen, dass Big Data tiefgreifende Auswirkungen nicht nur auf Produktentwicklung, Unternehmensprozesse und Wissenschaft, sondern auf die ganze Gesellschaft haben wird.
Täglich werden massenhaft Daten generiert. Unternehmen suchen verstärkt nach Lösungen, um diese sinnvoll zu nutzen und mittels Big-Data-Initiativen Wettbewerbsvorteile zu definieren und neue Geschäftsmodelle zu identifizieren. Grundvoraussetzung hierfür ist auf der einen Seite die technologische Infrastruktur für eine Big-Data-Analyse verbunden mit der Fähigkeit, die gesammelten Daten ausreichend zu schützen. Auf der anderen Seite erfordert dies eine wohlüberlegte Managementstrategie, um Big Data in ein profitables Geschäftsmodell umwandeln zu können sowie Fachexperten, die wissen, wie man die gewünschten Daten technisch verfügbar und nutzbar machen kann.
SEEOcta-Reihe befasst sich dieser Beitrag mit Aggregierung und Nutzung von Big Data. In weiteren Blogs der Perspektive „Daten“ geht es um den Im Rahmen unsererbefasst sich dieser. In weiteren Blogs dergeht es um den medienbruchfreien Datenaustausch , die Bedeutung von Data Governance sowie OCR-Erkennung.
Die SEEOcta-Blog-Serie beleuchtet die acht wichtigsten Perspektiven für ein erfolgreiches Projektmanagement. Sie erhalten einen Überblick über alle Bereiche, die bei der Planung von Digitalisierungs- und Integrationsvorhaben in Unternehmen zum Tragen kommen. Diese Impulse bilden eine Grundlage und einen Leitfaden für Ihre Projektplanung und helfen Ihnen sicherzustellen, dass Sie alle Aspekte bei der Einführung eines IT-Projektes berücksichtigen.
Was ist Big Data?
Big Data ist ein Überbegriff für die Methoden und Technologien, anhand derer Daten aller Art erfasst, gespeichert und analysiert werden können. Dabei können diese Daten aus unterschiedlichsten Quellen stammen:
Interne Datenquellen Externe Datenquellen Kundendaten Soziale Medien ERP-Module Offizielle Statistiken Daten von technischen Netzwerken Wettervorhersage Interne Dokumente Öffentliche zugängliche Datensätze Sensoren Geodaten Inhouse Callcenter Verkehrsdaten Daten von Sendern, wie beispielsweise RFID-Tags Audiodaten aus Callcentern Bilddaten aus der Videoüberwachung Website-Logs
Abbildung 1: Exemplarische Auflistung möglicher Quellen für Big Data
Diese und viele weitere Quellen sollen bis 2025 schätzungsweise 163 Zettabyte an Daten weltweit generiert haben[1]. Überraschend dabei ist, dass laut Oxford Mathematics Center über die Hälfte dieser Daten zwar erfasst und gespeichert, jedoch überhaupt nicht genutzt werden. Man bezeichnet diese Daten auch als Dark Data.
Abbildung 2: Die Verteilung von Big Data und Dark Data in Unternehmen (Quelle: Marktmonitor, newplayersnetwork.jetzt
Sinnvolle Big Data-Nutzung muss gut vorbereitet werden
Um die Sinnhaftigkeit der Daten, also ihre Qualität und der Nutzen und die Vertrauenswürdigkeit der daraus abgeleiteten Ergebnisse einordnen zu können, müssen die Daten zunächst einmal bereinigt werden. Primär hängen der Wert großer Datenmengen und die daraus abgeleiteten Visionen von drei wesentlichen Faktoren ab:
Datenquelle Vollständigkeit der Daten Datenreinheit
In der Studie „Preparing Clean Views of Data for Data Mining“ [2] der London Guildhall University in Zusammenarbeit mit dem Rutherford Appleton Laboratory wird postuliert, dass der Prozess der Datenaufbereitung zwischen 60 % und 80 % der Zeit eines datengesteuerten Projekts in Anspruch nehmen kann. Das kommt daher, dass Daten in ganz unterschiedlichen Formen vorliegen:
Strukturiert (SQL, Tabellen)
Semistrukturiert (E-Mail, XML, JSON)
Unstrukturiert (Textdateien, Bilddateien, Videodateien)
Für die Speicherung, Sammlung und Auswertung von Daten bedarf es also zunächst der rein physischen Infrastruktur, die in der Lage ist, die Daten zu aggregieren, egal in welcher Form sie vorliegen, als auch einer Auswertungsmethodik, die anschließend die Daten nutzbar macht.
Wo wird Big Data eingesetzt?
Daten können auf unsagbar vielseitige Weise genutzt werden, und das Potenzial ist nicht annähernd ausgeschöpft, wie Abbildung 2 verdeutlicht. Vor allem die sinnvolle Kombination von Daten aus Quellen, die scheinbar überhaupt nichts miteinander zu tun haben, kann hilfreiche Planungsgrundlagen liefern. So kann mit Big Data beispielsweise aus der Kombination von Wettervorhersagen und historischen Verkaufsdaten der Absatz von Sonnencreme oder Glühwein im Supermarkt vorhersagt werden. Auf Basis von Web-Suchanfragen ist es möglich, die Verbreitung von Krankheiten zu überwachen. Über kontinuierlich gemeldete Maschinendaten kann beispielsweise der Reparaturbedarf von technischen Geräten prognostiziert werden.
In unserem Beitrag Big Data, IoT und die SEEBURGER AG zeigen wir am Beispiel von Verkehrsdaten auf, wie diese mithilfe der SEEBURGER Business Integration Suite (BIS) in einen Data Lake fließen, um von dort, für die Nutzbarmachung für Big Data Tools, in entsprechende Formate konvertiert und an weitere Systeme übertragen zu werden. So können sie für die Erstellung aller Arten von Streaming Dashboards eingesetzt werden, um die Echtzeitbewegung auf den Straßen nicht nur genau wiederzugeben, sondern im nächsten Schritt, durch den Einsatz von (englisch: Machine Learning ) und (Künstliche Intelligenz, englisch: AI, Artificial Intelligence) sogar sehr zuverlässige Prognosen für die Verkehrsentwicklung zu bestimmten Uhrzeiten zu erstellen.
In der Praxis gibt es viele weiter Beispiele für den Einsatz von Big Data:
Abbildung 3: Big Data Anwendungsbeispiele (Quelle:
Immer mehr Unternehmen versuchen, das Datengold mittels Big Data zu schürfen. Bei der Untersuchung großer Datenmengen anhand verschiedener statistischer Analyseverfahren ist es möglich, versteckte systematische Muster, Korrelationen und Zusammenhänge erkennen und so aus Big Data entscheidungsrelevante Informationen für Optimierungspotentiale oder strategische Entscheidungen abzuleiten.
Der Nutzen von Big-Data-Inivitativen
Die BARC Studie 2015 „Getting real on Data Monetization“[3] zeigt, dass bereits 2015 viele Unternehmen mit Big Data beachtliche Vorteile durch die Analyse und Einbeziehung großer Mengen unterschiedlich strukturierter Daten erzielen konnten. Danach bieten ihnen diese Informationen eine Grundlage für strategische Entscheidungen (59 Prozent), sie ermöglichen eine effektivere Steuerung operativer Prozesse (51 Prozent), helfen, die eigenen Kunden besser zu verstehen (32 Prozent) und allgemein die Kosten zu senken (28 Prozent).
Abbildung 4: Worin sehen Sie die wichtigsten Vorteile einer Nutzung von Big Data Technologien? (Quelle:
Bemerkenswert ist, dass praktisch alle Fachbereiche eines Unternehmens ein signifikantes Potenzial für Big Data Uses Cases sehen. In Abbildung 5 ist ersichtlich, dass auch im Bereich Controlling/Finance mehr als zwei Drittel der befragten Unternehmen den Einsatz von Big Data zumindest langfristig planen oder schon entsprechende Anwendungen betreiben. Neben Kostenanalyse und -optimierung sind vor allem Verbesserungen in der Planung, bei der Budgetierung und beim Forecasting von vorrangigem Interesse.
Kundenanalyse häufigster Projekttreiber für Big Data
Einer der häufigsten Projektreiber ist, wie die BARC-Studie zeigt, die Analyse des Kundenverhaltens, um den Kunden zielgerichteter und individueller anzusprechen. Mit Big Data sollen neue Kunden gewonnen werden und die Ursachen für Abwanderungstendenzen bestehender Kunden frühzeitig erkannt und bekämpft werden. Somit zählen Marketing und Vertrieb zu den Vorreitern bei Big-Data Projekten.
Für eine umfassende Kundenanalyse werden in der Praxis u.a. folgende Daten herangezogen[4]:
Demografische Daten über Geschlecht, Alter, Familienstatus, Anzahl der Kinder etc.
über Geschlecht, Alter, Familienstatus, Anzahl der Kinder etc. Transaktionsdaten über Kaufverhalten und Inanspruchnahme von Dienstleistungen
über Kaufverhalten und Inanspruchnahme von Dienstleistungen Daten über Online-Verhalten , die zeigen, was sich der Kunde angesehen, auf die Wunschliste gesetzt, in den Warenkorb gelegt, gelöscht und tatsächlich gekauft hat
, die zeigen, was sich der Kunde angesehen, auf die Wunschliste gesetzt, in den Warenkorb gelegt, gelöscht und tatsächlich gekauft hat Daten aus den von Kunden geschriebenen Texten Bewertungen des Händlers, Kunden, Service
Bewertungen des Händlers, Kunden, Service Angaben zur Nutzung eines Produkts oder Dienstleistung wie Kundenrezensionen zur Qualität und Funktionalität der bestellten Ware bzw. Services, der Liefergeschwindigkeit, Verpackungsqualität, Aufbauanleitung usw.
Von Kundenanalysen anhand der Auswertungen von Big Data profitieren beide Seiten – Händler wie Kunden. Der Händler kann sein Produkt und Leistungsportfolio gemäß den Kundenwünschen anpassen, um diese passgenau zu erfüllen. Der Kunde erfreut sich über eine zielgenaue personalisierte Ansprache durch den Händler sowie höhere Produkt- und Servicequalität.
Herausforderung bei der Nutzung von Big Data
Diese riesige Datenmenge für Big Data bringen jedoch viele Herausforderungen in der Praxis mit sich. Die wichtigsten Herausforderungen hierbei sind folgende:
Welche Daten?
Um diese Frage beantworten zu können, sollte man zunächst genau definieren, welche Erkenntnisse man sich von der Auswertung der Daten erhofft. Also, welche Antworten sucht man eigentlich? Wie bereits beschrieben, existiert eine schier unendliche Menge unternehmensinterner sowie -externer Daten, und es werden stetig mehr. Die Unmenge an ungefilterten und unstrukturierten Daten, die täglich über unterschiedlichste Eingangskanäle in ein Unternehmen gelangen, macht die Entscheidung welche Daten herangezogen werden sollen, zu einer strategischen Herkulesaufgabe. Ganz entscheidend ist also, zunächst so konkret und eindeutig wie möglich zu definieren, welche Antworten die Daten liefern sollen, um dann entscheiden zu können, welche Daten hierfür von Nutzen sein können. Dabei kann die Kombination von Daten aus scheinbar völlig zusammenhangslosen Kontexten wertvolle Planungsergebnisse liefern. Datenqualität
Die Menge an strukturierten und vor allem unstrukturierten Daten nimmt rapide zu. Die Datenqualität ist daher ein Thema, das zunehmend wichtiger wird. Damit die aus der Auswertung von Big Data abgeleiteten Ergebnisse valide und für das Unternehmen wertstiftend sind, muss die Qualität der zugrundeliegenden Daten sichergestellt werden. Die kann, wie bereits oben erwähnt, 60 % bis 80 % der Projektzeit in Anspruch nehmen. Doch die Berücksichtigung der Zeit für eine sorgfältige Bereinigung der verwendeten Daten lohnt sich. Was hat man schließlich von fehlerhaften Erkenntnissen, die zu falschen Entscheidungen führen und am Ende eher schaden? Die aus Big Data resultierenden Entscheidungen können ganz nach dem Prinzip „Garbage in – Garbage out“ also nur so gut sein, wie es die Daten sind, auf die sie sich stützen. Dabei funktioniert der Ansatz, Datenfehler durch höhere Datenmengen herauszurechnen nur, wenn die Fehlerursache zu einem „zufälligen Rauschen“ in den Daten führt, wobei die hierzu benötigte Datenmenge im Allgemeinen exponentiell ansteigt. In der Praxis haben wir es jedoch nur selten mit zufälligen Datenfehlern, sondern meist mit systematischen Fehlern zu tun, bei denen auch große Datenmengen nicht helfen. Insofern sind der Mehrwert und der resultierende Wettbewerbsvorteil einer fundierten und adäquaten Messung, Steuerung und Verbesserung der Datenqualität sehr hoch (vgl. SEEBURGER Blog SEEOcta –Daten – Datenqualität). Datensilos
Daten werden in Unternehmen an verschiedenen Orten, oft als in sich geschlossene Systeme gespeichert. Man spricht in der Praxis von sogenannten Datensilos. Die Gründe für die Entstehung ungewollter Silos können technischer oder organisatorischer Art sein. Zu Datensilos kommt es typischerweise als Folge fehlender oder unzureichender Prozess- und Datenarchitekturen innerhalb eines Unternehmens. Datensilos entstehen beispielsweise dann, wenn einzelne Abteilungen ihre Daten nicht auf Basis einer übergreifenden Daten-Governance, sondern nach eigenen Regeln und in unterschiedlichen IT-Systemen ablegen. So werden in Unterhemen häufig Kundendaten aus dem Vertrieb, dem Service oder der Buchhaltung auf mehrere Orte verteilt, ohne eine Verknüpfung zwischen diesen Orten zu pflegen. Damit Analysen durchgeführt werden können und diese Daten einheitlich nutzen, müssen in Folge Datensätze von einem Silo in ein anderes kopiert werden. Dies ist ist in jeder Hinsicht ineffizient. Für den Echtzeitzugriff auf alle Daten sollten moderne Anwendungen frei zwischen lokalen, privaten oder öffentlichen Clouds wechseln können.
Big Data, Datensicherheit und Datenschutz
Je mehr Daten für Big-Data-Initiativen herangezogen werden, desto höher die Gefahr von Sicherheits- und Datenschutzverletzungen. Generell sollten bei der Nutzung von Big Data folgende Aspekte berücksichtigt werden:
gefälschte Daten
Big Data ist zunächst eine Ansammlung von Daten aus einer Vielzahl interner und externer Quellen. Die Qualität und Herkunft der Daten spielt zunächst keine Rolle. Es können also ungültige, gefälschte oder falsche Daten vorliegen, die Analysen und die daraus abgeleiteten Ergebnisse verfälschen können.
Big Data ist zunächst eine Ansammlung von Daten aus einer Vielzahl interner und externer Quellen. Die Qualität und Herkunft der Daten spielt zunächst keine Rolle. Es können also ungültige, gefälschte oder falsche Daten vorliegen, die Analysen und die daraus abgeleiteten Ergebnisse verfälschen können. Datensicherheit und Datenschutz
Die gesammelten Daten bedürfen ein hohes Maß an Datenschutzmaßnahmen, die die Sicherheit der Daten – insbesondere der Kundendaten – sicherstellt. Verschlüsselung, Zugriffskontrolle und Firewalls sind hier nur einige Beispiele, um Probleme wie Datenlecks, Malware und Data Harvesting zu verhindern.
Datenschutzgesetz
Bei Big Data Projekten ist insbesondere die Gewährleistung der Einhaltung des Datenschutzgesetzes für alle Datenquellen zu berücksichtigen.
Fazit
Daten sind Vermögenswerte, aus denen Unternehmen Geschäftserfolge schöpfen können. Es geht längst nicht mehr nur um die Speicherung von Daten, sondern viel mehr um das, was mit Daten erreicht werden kann. Unternehmen nutzen Big Data vermehrt als relevante Zukunftstechnologie für die Schaffung von Wettbewerbsvorteilen. Die rasant wachsende Datenflut und deren Bewältigung ist eine der Schlüsselherausforderungen neuer digitaler Lösungen. Der Einsatz von Big Data ist für viele Unternehmen der dringend nötige Impuls, sich einen ganzheitlichen und zugleich detaillierten Überblick über ihre Daten zu verschaffen. Big Data wird unternehmerische Entscheidungen zukünftig maßgeblich beeinflussen und lenken.
SEEOcta-Reihe. In der Blog-Kategorie „ Dieser Beitrag ist Teil der. In der Blog-Kategorie „ SEEOcta “ finden Sie alle gesammelten Beiträge dieser Serie rund um die Einführung eines neuen IT-Projektes.
[1] Marktmonitor New Players Network
[2]
[3] BARC: Big Data Use Cases
[4] In Anlehnung an https://www.scnsoft.de/blog/was-ist-big-data