Große Daten

Big Data Analytics

Trend oder Mehrwert – Big Data auch für den Mittelstand?

Trend oder Mehrwert – Big Data auch für den Mittelstand?

Im Umfeld von Google und Facebook wurde der Begriff “Big Data”, welcher riesige, komplexe oder sich auch schnell ändernde Datenmenge meint, die mit herkömmlichen oder händischen Daten-verarbeitungsmethoden nicht auswertbar sind [1], weltbekannt. Inzwischen begegnet er uns an allen Ecken. Viele Unternehmen haben nun Angst, einen Trend zu verpassen, sind aber gleichzeitig unsicher, ob Big Data überhaupt ein für sie relevantes Thema ist – vor allem im Mittelstand.

Als mittelständisches IT-Unternehmen ist es uns daher besonders wichtig, sich mit Big Data intensiv zu befassen und so eine fachliche Einschätzung treffen zu können – für unsere Kunden und auch für uns. Ist es für uns als Mittelständler ein Thema? Welchen Nutzen können wir oder unsere Kunden daraus ziehen? Verpassen wir etwas, wenn wir Big Data nicht nutzen?

Im Rahmen der Konferenz BigDataCon 2014 in Mainz hatten wir die Gelegenheit, uns intensiv und praktisch mit dem Thema, den Technologien sowie den betriebswirtschaftlichen Aspekten auseinanderzusetzen.

Wir wollten insbesondere folgenden, für uns und viele andere ungeklärte Fragen zu Big Data nachgehen:

Was ist der Unterschied zwischen Business Intelligence und Big Data und wie funktioniert es? Wann und für wen kommt Big Data sinnvollerweise zum Einsatz und mit welchem Kostenfaktor?

Business Intelligence vs. Big Data

Der Unterschied zwischen Business Intelligence (BI) und Big Data liegt in der Frage, welche Daten für eine spätere Erhebung gespeichert werden. Die Gemeinsamkeit beider Methoden ist das Ziel, die Daten systematisch zu analysieren, auszuwerten und nutzbar zu machen. Bei BI wird basierend auf einer Analyse festgelegt, welche Daten strukturiert erfasst, gespeichert und zu welchem Zweck sie wie nutzbar gemacht werden.

Bei Big Data geht es darum, dass man zum Zeitpunkt der Datenerfassung noch nicht genau weiß, welche Daten in Art und Umfang zu einem späteren Zeitpunkt von Interesse sein könnten. Wenn man es genau nimmt, darf man sich diese Frage nicht einmal im Ansatz stellen, sondern muss statt dessen möglichst alle Aspekte, die im Zusammenhang mit jedem einzelnen Ereignis und Datensatz ermittelbar sind, direkt erfassen und speichern. Dadurch wird jeder einzelne Datensatz extrem umfangreich und groß.

In der klassischen IT werden die Daten möglichst zentral gehalten (meist in einer Datenbank) und die Verarbeitung findet in einem oder mehreren Servern statt. Hierzu werden die Daten (meist über das Netzwerk) zum Server transportiert und dort verarbeitet.

Bei Big Data läuft es genau anders herum. Die Daten werden über den Cluster (12 bis 4.000 Server in einem Rechenzentrum) verteilt. Dann wird der speziell für die Datenanalyse entwickelte Programmcode über alle Serverknoten verteilt und lokal bei den Daten ausgeführt. Über den zugrundeliegenden Map-Reduce Algorithmus, einem Programmiermodell für Berechnungen über riesige Datenmengen auf Computerclustern, werden die Teilergebnisse aller Serverknoten eingesammelt und konsolidiert.

Wann sich der Einsatz von Big Data Lösungen im Mittelstand lohnt

Diese leistungsfähige und kostenintensive Infrastruktur, die für eine gute Big Data Lösung nötig sind, – viele Server, spezielle Programme – macht nur Sinn, wenn zwei elementare Fragen mit Ja beantwortet werden können:

Gibt es im mittelständischen Unternehmen einen Business Case oder eine relevante Fragestellung, welche einen ausreichend hohen Business-Wert verspricht, der Einsparungen oder Mehrwerte im sechsstelligen Bereich oder mehr bringen kann? Verfügt das mittelständische Unternehmen über eine ausreichend große Datensammlung/ -menge im Bereich von mehreren Tera – bis Petabyte, welche entsprechende Einzelinformation für die Beantwortung der gestellten Frage zur Verfügung stellen kann.

Wenn das der Fall ist, können auch mittelständische Unternehmen mit Big Data und den passenden Experten dazu ihre Einsparpotenziale im Unternehmen heben und signifikante Mehrwerte identifizieren. Wenn nur eine der beiden Fragen positiv beantwortet werden kann, dann sollte die andere kritisch auf Machbarkeit geprüft werden, um dann eine fundierte Entscheidung für oder gegen Big Data treffen zu können.

Wir als Mittelständler haben nach Prüfung dieser beiden elementaren Punkte für uns entschieden, das Thema für als Unternehmen nicht weiterzuverfolgen. Wir glauben, dass es auch vielen mittelständischen Unternehmen so gehen wird, da nur in seltenen Fällen diese beiden Voraussetzungen erfüllt sind. Dennoch finden wir Big Data spannend und sinnvoll, wenn ein Unternehmen die genannten Voraussetzungen erfüllt und raten dann auch zur Umsetzung.

[1] [Bild] © Julien

Big Data & Versicherung: Wettbewerbsvorteil sichern

Die Versicherungsbranche sitzt auf einem riesigen Datenschatz. Dank intelligenter Analyseverfahren können diese enormen Datenmengen über Kunden, Produkte und Schadenentwicklung sinnvoll strukturiert und ausgewertet werden – auch in Echtzeit. Der konsequente Einsatz von Big Data und Data Analytics im Versicherungsalltag ist Voraussetzung für eine erfolgreiche digitale Transformation hin zum datengetriebenen Versicherer. In diesem Artikel beleuchten wirdas Potenzial von Big-Data-Ansätzen in der Assekuranz, gehen auf den Status quo ein, und zeigen, wie smarte Software hier unterstützend tätig werden kann.

Was versteht man unter Big Data?

Das Datenvolumen in Unternehmen aller Branchen – auch bei Versicherungen und Banken – ist dank des Einsatzes neuer Technologien in den vergangenen Jahren stetig gewachsen. Dabei ist deren Verarbeitung alles andere als trivial. Leistungsstarke Programme und Verfahren wie z. B. Machine Learning sollen bei der Analyse und Auswertung dieser Daten helfen, die als das „Gold des 21. Jahrhunderts“ bezeichnet werden. Doch was versteckt sich konkret hinter dem Begriff „Big Data“? Bei der Definition gilt es, Big Data im engeren und Big Data im weiteren Sinne zu unterscheiden:

Unter Big Data im engeren Sinne versteht man Datenmassen , die zu groß, zu unstrukturiert, zu komplex oder zu schnelllebig sind, um mit klassischen Methoden der Datenverarbeitung untersucht und ausgewertet zu werden.

Big Data im weiteren Sinne umfasst als Sammelbegriff die Gesamtheit der Technologien und Methoden, die die Sammlung, Speicherung, Zusammenführung und Verarbeitung großer Datenmengen ermöglichen.

Aktueller Stand von Big Data bei Versicherungen

Big Data, Predictive Analytics, steigende Regulatorik und die Gefahren durch Cyberkriminalität: Das sind laut Trendbarometer 2020, einer Umfrage der Versicherungsforen und des Digital Impact Labs Leipzig, die Top-Trends der Versicherungsbranche. Das Thema „Big Data“ stuften die befragten Versicherer und Dienstleister mit einem Mittelwert von 3,7 als wichtigste Entwicklung für das eigene Unternehmen und die Assekuranz in den kommenden fünf Jahren ein. Das überrascht nicht: Seit jeher besteht das Business von Versicherungen in der Sammlung und Auswertung von Zahlen, um Risiken und Prämien festzulegen und Entscheidungen im Beschwerdemanagement, in der Schadenregulierung oder in der Vertriebssteuerung zu treffen.

Doch die heutzutage verfügbaren Kunden- und Umweltdaten ermöglichen den Versicherungen zahlreiche neue Einsatzfelder für Big-Data-Anwendungen und bieten strategisches Potenzial. Dabei sollten Versicherungen auch kreative Kooperationen mit neuen Partnern (beispielsweise Netflix) nicht scheuen, um ihre eigenen Daten anzureichern und so das Potenzial für neue innovative Versicherungen zu bergen, wie Versicherungsexperten nahelegen.

Einsatz von Big Data in der Assekuranz

Wo liegen nun die Anwendungsgebiete für Big Data bei Versicherungen? Hier ein Überblick über die Bereiche, in denen bereits das Potenzial der Auswertung großer Datenmengen genutzt wird:

Big Data ermöglicht Versicherungen die fundierte Bewertung von Risiken : Dank Telematik-Lösungen in Fahrzeugen können beispielsweise Daten zum Fahrverhalten des Autofahrers an die Versicherung beziehungsweise den Dienstleister der Versicherung übermittelt werden. Dadurch kann eine dynamische Anpassung der Versicherungsprämie, gekoppelt an das persönliche Fahrverhalten, erfolgen. Wer vorausschauend und sicher fährt und sich an die geltenden Geschwindigkeitsbegrenzungen hält, bekommt bei diesem nutzungsbasierten Produkt einen Rabatt beziehungsweise zahlt einen geringeren Versicherungsbeitrag.

Ein aufwändiger Prozess in der Versicherungsbranche ist die Bewertung von Versicherungsansprüchen , da Informationen aus heterogenen Kundendokumenten zu analysieren sind. Mithilfe künstlicher Intelligenz beziehungsweise lernfähiger Algorithmen können Dokumenttypen automatisiert klassifiziert und relevante Abschnitte in Dokumenten identifiziert werden. KI-gestütztes Claim Management unterstützt damit die effiziente Gestaltung des Nachforderungsmanagements.

Durch intelligente Smart-Home-Konzepte erhalten Versicherungen Eintritt in die Lebenswelt ihrer Kunden , indem sie die Echtzeitdaten der vernetzten Geräte im Haushalt analysieren und auswerten. Damit können sie ihnen im Alltag proaktiv zur Seite stehen und durch intelligente Algorithmen Schadenfälle verhindern noch bevor sie entstehen. Beispielsweise lässt sich durch Sensoren der Druck und Wasserdurchfluss in Wasserleitungen überwachen. Wenn aufgrund eines Lecks in der Leitung Wasser austreten sollte, wird dieses ungewöhnliche Ereignis durch eine plötzliche Änderung an den Daten identifiziert und es werden geeignete Gegenmaßnahmen eingeleitet (z. B. Warnung des Kunden mittels App). Denkbar sind auch Assistenzleistungen wie der automatische Anruf bei einem Handwerker. Dank Big Data-Lösungen wird so der Fokus bei Versicherungen vom reaktiven Schadenmanagement hin zu proaktivem Management von Risiken und zur Prävention verschoben. Die Versicherung fungiert also mehr als ein „Lebensbegleiter“ anstatt nur als Dienstleister, der im Schadenfall leistet.

Eine aufwändige Arbeit vor dem Abschluss einer Versicherung stellt die Risikoprüfung dar, welche das Vorliegen exakter Informationen erfordert, die oft noch durch das Ausfüllen umfangreicher Fragebögen eingeholt werden. Mittels Big-Data-Verfahren lassen sich Kunden mit geringem Risiko anhand von Profil- und Verhaltensdaten erkennen, so dass diesen ein vereinfachtes Verfahren zur Risikoprüfung angeboten werden kann. Damit verbessert sich nicht nur die operative Effizienz, sondern auch die Customer Experience. Auch das Underwriting und die Evaluierung neuer Risiken durch Auswertung und Korrelation von externen Daten ist möglich.

Big Data kommt bei Versicherungen darüber hinaus zum Einsatz, um mittels prädiktiver und quantitativer Verfahren potenzielle Betrugsfälle aufzudecken oder zweifelhafte Schadenfälle effizient aufzuklären. Da laut einer aktuellen Infas-Quo-Studie im Auftrag des Gesamtverbands der Deutschen Versicherungswirtschaft (GDV) bei bis zu jeder zehnten Versicherungsforderung Betrug im Spiel ist, können Versicherer so dank Anwendung von Big-Data-Methoden große Summen einsparen. Bei der Betrugserkennung werden verschiedenste interne und externe Daten verknüpft und analysiert und auf Betrugsmuster hin untersucht. Dies läuft vollkommen automatisiert in Dunkelverarbeitung ab. Erst wenn das System Hinweise in den Daten findet, die einen möglichen Versicherungsbetrug nahelegen, kommt der Fall auf den Tisch eines Sachbearbeiters, der sich den Vorgang im Detail ansieht.

Vorteile von Big-Data-Lösungen

Der Einsatz von Big-Data im Versicherungsalltag bringt zahlreiche Vorteile für Versicherungen:

Big Data macht dank neuer Datenquellen das Zeichnen völlig neuartiger Risikokategorien wie Cyber möglich. So können Versicherungen ihr Geschäft steigern, aber auch profitabler Risiken einschätzen und zeichnen (Cyence).

Die Analyse und Auswertung großer Datenmengen ermöglicht die Entwicklung innovativer Produkte und Services , beispielsweise einer individuellen Kfz-Versicherung sowie Assistenzleistungen.

Durch die automatisierte, schnelle und fehlerfreie Bearbeitung von Versicherungsvorgängen steigt die allgemeine Kundenzufriedenheit .

Dank Big Data haben Versicherungen mehr Informationen über ihre Kunden und können so eine bessere und schnellere Einstufung des Risikoprofils eines Kunden vornehmen. Informationsasymmetrien auf dem Versicherungsmarkt werden so abgebaut und Antiselektion reduziert.

Im Schadenbereich k ann schneller und gezielter speziell auf Kumulschäden reagiert werden , da Informationen über die auslösenden Ereignisse zur Verfügung stehen. Man kann rasch einen Überblick über seinen Vertragsbestand in dem betroffenen Gebiet erhalten und so schneller und gezielter reagieren und helfen.

Big Data liefert Versicherungen Antworten auf relevante Fragen , auf die die klassischen Analyseverfahren bisher keine Antworten geben konnten (zum Beispiel automatisierte Betrugserkennung). Außerdem stellt Big Data wichtige Erkenntnisse effizienter als bisher zur Verfügung.

Big Data bietet eine einfache Erkennung von Compliance-Problemen wie Betrugsversuchen.

Durch Big-Data-Ansätze bei Versicherungen lassen sich die Kosten des operativen Geschäfts signifikant verringern , da viele Vorgänge mittels Dunkelverarbeitung in kürzerer Zeit und ohne manuelle Eingriffe bearbeitet werden können.

Big Data ermöglicht es auch, in Echtzeit operationale Prozesse zu analysieren und eventuell Personal auf Basis der bestehenden Arbeitslast zu skalieren.

Herausforderungen durch Big-Data-Lösungen

Big-Data-Initiativen in Versicherungen haben trotz des eben aufgezeigten Potenzials mit Herausforderungen zu kämpfen.

Versicherungsnehmer sind laut verschiedener Studien grundsätzlich dazu bereit, in bestimmten Situationen mit ihren Versicherungen Daten zu teilen, wenn sie dadurch einen deutlichen Vorteil erlangen. Versicherungen müssen ihrerseits aber transparent sein und eine Reihe von Fragen beantworten wie „Wer hat Zugriff auf die privaten Daten?“ und „Können bestimmte Menschen vom Versicherungsschutz ausgenommen werden?“.

In vielen Versicherungen herrschen softwaretechnische Insellösungen vor. Dezentrale Datenhaltung und mangelnde Datenqualität verhindern allzu oft noch Big-Data-Initiativen in der Assekuranz. In dieser Situation können aus den verteilt vorhandenen Daten mittels Predictive Analytics keine neuen Erkenntnisse oder das zukünftige Kundenverhalten prognostiziert werden. Erst durch eine Zusammenführung und Synchronisation der Daten erfolgt die Wandlung von Big Data zu Smart Data.

Das Potenzial von Big Data wird allzu oft noch durch in die Jahre gekommene Legacy-Systeme ausgebremst.

Nicht zuletzt müssen die Daten von entsprechenden Fachkräften wie Data Scientists und Spezialisten in KI ausgewertet werden, die auf dem Arbeitsmarkt momentan rar gesät sind.

Guidewire Analytics: Plattform zur Umsetzung von Big Data

Treffen Sie als Versicherung Entscheidungen auf der Grundlage interner und externer Daten, um wirtschaftlich erfolgreich und dem Wettbewerb zwei Schritte voraus zu sein. Dabei unterstützt Sie die Guidewire Data Platform mit den Lösungen Predictive Analytics, Risk Insights und Business Intelligence. Erhalten Sie Informationen über Ihre Kunden genau in dem Moment, in dem Sie sie brauchen.

Mit Predictive Analytics optimieren Sie die Schadenbearbeitung, verbessern die Rentabilität im Underwriting und fördern intelligente Entscheidungen in allen Kernprozessen.

Mit Risk Insights können Versicherungen neue Wachstumschancen nutzen, indem sie ihre Fähigkeiten zur Evaluierung und Tarifierung neuer Risiken steigern und beispielsweise hochmoderne Cyber-Versicherungsprodukte entwickeln.

Mit Business Intelligence lässt sich die Leistung des Unternehmens kontinuierlich messen, steuern und verbessern.

Die Guidewire Data Plattform ist die Grundlage für analysegestützte Innovation. Ihre Vorteile:

Bessere Risikoselektion : Verbessern Sie die Qualität Ihres Geschäftsportfolios durch präzise Risikobewertung und fundierte Kapitalentscheidungen.

Profitables Wachstum : Sprechen Sie vielversprechende Kunden an und binden Sie diese an sich.

Operationelle Effizienz : Rationalisieren Sie Ihre Abläufe mit schnellerer Wertschöpfung. Bieten Sie Angebote in Minuten, neue Versicherungsprodukte in Stunden an. Testen Sie, lernen Sie und passen Sie an!

Verbesserte Kundenerfahrung: Machen Sie Ihre Kunden glücklich, indem Sie ihnen leicht zu kaufende und nutzende Versicherungsprodukte anbieten.

Verbessern Sie Ihre operative Effizienz und Kundenzufriedenheit durch Big Data

Dank des Einzugs moderner Technologien in nahezu jeden Bereich unseres Lebens erhalten auch Versicherer Zugriff auf mehr und mehr Daten aus den unterschiedlichsten Quellen. Dabei kann der smarte Einsatz von „Big Data“ Versicherungen einen deutlichen Wettbewerbsvorteil verschaffen, indem er die operative Effizienz entlang der gesamten Wertschöpfungskette verbessert und die Kundenzufriedenheit steigert.

Wollen auch Sie mehr gewinnbringende Informationen aus Ihren Daten ziehen und damit innovative Produkte entwickeln, die Customer Experience verbessern und Kosten einsparen? Nehmen Sie Kontakt mit uns auf!

Kontakt

Big Data Analytics

Beitrag als PDF-Dokument downloaden ×

Als PDF herunterladen Xing LinkedIn Facebook E-Mail

Big Data Analytics

Big Data Analytics bezeichnet den oft komplexen Prozess der Untersuchung großer und vielfältiger Datensätze oder großer Datenmengen, um Informationen wie versteckte Muster oder unbekannte Zusammenhänge aufzudecken. Die Analyse dieser Daten soll Unternehmen dementsprechend bei ihren Geschäftsentscheidungen unterstützen.

Auf breiter Ebene bieten Datenanalysetechnologien und -techniken eine Lösung, um Datensätze zu analysieren und Schlussfolgerungen über sie zu ziehen. Business Intelligence (BI) beantwortet grundlegende Fragen zum Geschäftsbetrieb und zur Leistung.

Big Data Analytics ist eine Form der Advanced Analytics, bei der es sich um komplexe Anwendungen mit Elementen wie prediktive Modelle, statistische Algorithmen und What-If-Analysen handelt, die von leistungsstarken Analysesystemen unterstützt werden.

Was ist Big Data?

Das Konzept der großen Daten gibt es schon seit Jahren. Insbesondere die mathematischen Konzepte und die statistischen Methoden sind schon sehr alt, können aber erst mit der heutigen Technologie und Hardware-Performance umgesetzt werden. Die meisten Unternehmen wissen jetzt, dass sie bei umfangreichen Datenerfassungen Analysen anwenden und einen erheblichen Wert daraus ziehen können. Aber selbst in den 1950er Jahren, Jahrzehnte bevor der Begriff “Big Data” überhaupt jemand aussprach, verwendeten Unternehmen grundlegende Analysen manuell, um Erkenntnisse und Trends aufzudecken.

Live-Einblicke

Die neuen Vorteile, die die Big Data Analytics mit sich bringt, sind Geschwindigkeit und Effizienz. Während vor einigen Jahren ein Unternehmen Informationen gesammelt, Analysen durchgeführt und Informationen ausgegraben hätte, die für zukünftige Entscheidungen verwendet werden könnten, kann dieses Unternehmen heute Erkenntnisse für unmittelbare Entscheidungen identifizieren. Die Fähigkeit, schneller zu arbeiten – und beweglich zu bleiben – gibt Unternehmen einen Wettbewerbsvorteil, den sie vorher nicht hatten.

Was ist Big Data Analytics?

Big Data Analytics hilft Unternehmen, ihre Daten zu nutzen und neue Möglichkeiten zu erkennen. Das wiederum führt zu intelligenteren Geschäftsvorgängen, effizienteren Abläufen, höheren Gewinnen und zufriedeneren Kunden. In seinem Bericht Big Data in Big Companies befragte IIA-Forschungsleiter Tom Davenport mehr als 50 Unternehmen, um zu verstehen, wie sie große Daten nutzen. Er fand heraus, dass sie auf folgende Weise einen Wert haben:

Kostensenkung. Große Datentechnologien wie Hadoop und Cloud-basierte Analysen bringen erhebliche Kostenvorteile, wenn es um die Speicherung großer Datenmengen geht – außerdem können sie effizientere Wege der Geschäftsabwicklung aufzeigen. Schnellere und bessere Entscheidungsfindung. Mit der Geschwindigkeit von Hadoop und In-Memory-Analysen, kombiniert mit der Fähigkeit, neue Datenquellen zu analysieren, sind Unternehmen in der Lage, Informationen sofort zu analysieren – und Entscheidungen auf der Grundlage der gewonnenen Erkenntnisse zu treffen. Neue Produkte und Dienstleistungen. Mit der Fähigkeit, die Kundenbedürfnisse und -zufriedenheit durch Analysen zu messen, ist die Möglichkeit gegeben, den Kunden das zu geben, was sie wollen. Mit Big Data Analytics können immer mehr Unternehmen neue Produkte entwickeln, um die Bedürfnisse der Kunden zu erfüllen.

Big Data Analytics heute

Die meisten Unternehmen verfügen über Big Data. Dabei verstehen viele die Notwendigkeit, diese Daten zu nutzen und aus ihnen einen Mehrwert zu ziehen. Aber wie? Diese Ressourcen decken die neuesten Erkenntnisse über die Schnittmenge von großen Daten und Analysen ab.

Big Data Analytics Beispiele

Die besten Beispiele für große Daten sind sowohl im öffentlichen als auch im privaten Sektor zu finden. Von gezielter Werbung, Bildung und den Industrien (Gesundheitswesen, Versicherungen, Fertigung oder Banken) bis hin zu Szenarien aus dem wirklichen Leben, im Gästeservice oder in der Unterhaltung. Bis zum Jahr 2020 werden pro Sekunde 1,7 Megabyte Daten für jede Person auf dem Planeten generiert, das Potenzial für datengesteuertes organisatorisches Wachstum im Gastgewerbe ist entsprechend enorm.

Bildungsbranche

In der Bildungsbranche ermöglicht Big Data Analytics unter anderem maßgeschneiderte und dynamische Lernprogramme sowie das Reframing von Kursmaterial. Auch die Benotungssysteme und Karriere-Vorhersagen haben große, datentechnisch motivierte Veränderungen durchlebt.

Versicherungsbranche

Die Versicherungsbranche ist nicht nur für Einzelpersonen, sondern auch für Unternehmen von Bedeutung. Der Grund dafür, dass Versicherungen einen bedeutenden Platz einnehmen, ist, dass sie Menschen in Zeiten von Widrigkeiten und Unsicherheiten unterstützen. Die aus diesen Quellen gesammelten Daten haben unterschiedliche Formate und ändern sich mit enormer Geschwindigkeit.

Sammeln von Informationen

Da sich Big Data auf das Sammeln von Daten aus unterschiedlichen Quellen beziehen, stellt diese Funktion einen entscheidenden Anwendungsfall für die Versicherungsbranche dar, auf den sie sich stützen kann. Z.B.: Wenn ein Kunde beabsichtigt, eine Autoversicherung in Kenia zu kaufen, können die Unternehmen Informationen erhalten, aus denen sie das Sicherheitsniveau für das Fahren in der Nähe des Käufers und seine bisherigen Fahrten berechnen können. Auf dieser Grundlage können sie auch die Kosten der Autoversicherung effektiv berechnen.

Die Ermittlung des Kundenerlebnisses und die Kunden als Mittelpunkt des Unternehmens zu behandeln ist von größter Bedeutung. Big Data Analytics unterstützt Unternehmen bei der Verarbeitung von Daten hinsichtlich der Customer Experience und ermöglicht somit auch in diesem Bereich Optimierungen.

Bedrohungsanalyse

Wenn eine Versicherungsagentur eine Versicherung verkauft, möchte sie sich über alle Möglichkeiten im Klaren sein, welche Dinge bei ihrem Kunden ungünstig verlaufen und sie dazu veranlassen könnten, einen Anspruch geltend zu machen.

Regierungsbranche

Wie in vielen anderen Bereichen können Big Data auch in der Regierung einen enormen Einfluss haben – lokal, national und global. Bei so vielen komplexen Themen, die heute auf dem Tisch liegen, haben die Regierungen viel zu tun, um alle Informationen, die sie erhalten, zu verstehen und wichtige Entscheidungen zu treffen. Regierungen sehen sich fast täglich mit einer sehr großen Menge an Daten konfrontiert. Sie müssen nämlich verschiedene Aufzeichnungen und Datenbanken über die Bürger führen. Die Analyse dieser Daten helfen den Regierungen auf unendliche Weise. Dabei handelt es sich beispielsweise um Wohlfahrtsprogramme und Cyber-Sicherheit.

SAP Analytics Tools: On Premise vs. Cloud [E-Book] Finden Sie hier notwendige Informationen und einige Leitfragen, um prüfen zu können, ob Sie Ihre Analytics-Anwendungen On-Premise oder in der Cloud betreiben wollen.

SAP Analytics Tools: On Premise vs. Cloud [E-Book] ×

Bankensektor

Die Datenmenge in den Bankensektoren steigt jede Sekunde weiter in die Höhe. Nach der GDC-Prognose werden diese Daten von 2017 bis 2020 um schätzungsweise 700% wachsen.

Die Untersuchung und Analyse von Big Data kann dabei behilflich sein folgende Dinge aufzudecken:

Den Missbrauch von Kreditkarten

Den Missbrauch von Debitkarten

Behandlung von Risikokreditrisiken

Geschäftliche Klarheit

Änderung der Kundenstatistik

Die Geldwäscherei

Risikominderung

Es gibt keine einzelne Technologie, die Big Data Analytics umfasst. Natürlich gibt es fortgeschrittene Analysen, die auf Big Data angewendet werden können, aber in Wirklichkeit arbeiten mehrere Arten von Technologien zusammen, um Ihnen dabei zu helfen, den größtmöglichen Nutzen aus Ihren Informationen zu ziehen. Hier sind die größten Akteure:

Machine Learning

Maschinelle Lernverfahren (eine spezielle Untergruppe der KI), die eine Maschine im Lernen trainieren, ermöglichen es, schnell und automatisch Modelle zu erstellen. Diese Modelle können größere, komplexere Daten analysieren und schnellere, genauere Ergebnisse liefern. Durch die Erstellung präziser Modelle hat ein Unternehmen eine bessere Chance, profitable Möglichkeiten zu erkennen oder unbekannte Risiken zu vermeiden.

Data Government

Bevor Daten zuverlässig analysiert werden können, müssen sie von hoher Qualität sein und gut verwaltet werden. Da Daten ständig in ein Unternehmen hinein und aus einem Unternehmen heraus fließen, ist es wichtig, wiederholbare Prozesse zu etablieren, um Standards für die Datenqualität zu schaffen und aufrechtzuerhalten. Sobald die Daten zuverlässig sind, sollten Unternehmen ein Stammdatenverwaltungsprogramm einrichten, das das gesamte Unternehmen auf die gleiche Seite bringt.

Data Mining

Die Data Mining Technologie hilft Ihnen, große Datenmengen zu untersuchen, um Muster in den Daten zu entdecken. Diese Informationen können für weitere Analysen verwendet werden, um komplexe Geschäftsfragen zu beantworten. Mit der Data Mining Software können Sie all das chaotische und sich wiederholende Rauschen in den Daten durchsuchen, die relevanten Daten genau bestimmen, diese Informationen zur Bewertung der wahrscheinlichen Ergebnisse verwenden und dann das Tempo für fundierte Entscheidungen beschleunigen.

Hadoop

Das Open-Source-Software-Framework Hadoop kann Big Data speichern und Anwendungen auf Clustern von Standard-Hardware ausführen. Es ist aufgrund der ständig wachsenden Datenmengen und -vielfalt zu einer Schlüsseltechnologie für die Geschäftswelt geworden. Sein verteiltes Rechenmodell verarbeitet große Datenmengen schnell. Ein zusätzlicher Vorteil ist, dass das Open-Source-Framework von Hadoop kostenlos ist und Standard-Hardware zur Speicherung großer Datenmengen verwendet.

In-Memory-Analyse

Durch die Analyse von Daten aus dem Systemspeicher (statt von der Festplatte) können Sie sofortige Erkenntnisse aus Ihren Daten gewinnen und schnell darauf reagieren. Diese Technologie ist in der Lage, Datenvorbereitungs- und analytische Verarbeitungslatenzen zu entfernen, um neue Szenarien zu testen und Modelle zu erstellen. Dies ist nicht nur eine einfache Möglichkeit für Unternehmen, agil zu bleiben und bessere Geschäftsentscheidungen zu treffen, sondern ermöglicht ihnen auch die Durchführung iterativer und interaktiver Analyseszenarien.

Predictive Analytics

Die Technologie der Predictive Analytics verwendet Daten, statistische Algorithmen und maschinelle Lernverfahren, um die Wahrscheinlichkeit künftiger Ergebnisse auf der Grundlage historischer Daten zu ermitteln. Es geht darum, eine bestmögliche Einschätzung dessen zu liefern, was in der Zukunft passieren wird, damit Unternehmen sich sicherer fühlen können, dass sie die bestmögliche Geschäftsentscheidung treffen. Zu den häufigsten Anwendungen der Predictive Analytics gehören die Betrugserkennung, das Risikomanagement, die Betriebsabläufe und das Marketing.

Text Mining

Mit der Text-Mining-Technologie können Sie Textdaten aus dem Web, aus Kommentarfeldern, aus Büchern und anderen textbasierten Quellen analysieren, um Erkenntnisse aufzudecken, die Ihnen bisher nicht aufgefallen sind. Text Mining nutzt maschinelles Lernen oder eine Technologie zur Verarbeitung natürlicher Sprache, um Dokumente – E-Mails, Blogs, Twitter-Feeds, Umfragen, Wettbewerbsinformationen und mehr – zu durchkämmen, damit Sie große Mengen an Informationen analysieren und neue Themen und Begriffsbeziehungen entdecken können.

Webinar: Supply Chain – Lieferketten optimieren mit Analytics Die Anforderungen an Lieferketten werden in Zeiten der Globalisierung immer komplexer. Neue Technologien und immer weiter steigende Datenmenge n treiben die digitale Transformation an. Auch bei Lieferketten spielt die Digitalisierung zunehmend eine essenzielle Rolle. Nutzen Sie Ihre Datenmengen bereits effektiv?

Möglichkeiten

Angetrieben von spezialisierten Analysesystemen und Software sowie leistungsstarken Computersystemen bietet die Big Data Analytics verschiedene Geschäftsvorteile. Darunter befinden sich beispielsweise:

Neue Umsatzmöglichkeiten

Effektiveres Marketing

Besserer Kundenservice

Verbesserte betriebliche Effizienz

Wettbewerbsvorteile gegenüber Mitbewerbern

Big Data Analytics-Anwendungen ermöglichen es, Big Data Analysten, Datenwissenschaftlern, Statistikern und anderen Analytikern, wachsende Mengen an strukturierten Transaktionsdaten sowie andere Datenformen zu analysieren, die von herkömmlichen BI- und Analyseprogrammen oft ungenutzt bleiben. Dies umfasst eine Mischung aus semi- und unstrukturierten Daten – zum Beispiel Internet-Clickstream-Daten, Webserver-Protokolle, Social-Media-Inhalte, Texte aus Kunden-E-Mails und Umfrageantworten, Handy-Aufzeichnungen und Maschinendaten, die von Sensoren erfasst werden, die mit dem Internet der Dinge (IoT) verbunden sind.

Unstrukturierte und halbstrukturierte Datentypen passen in der Regel nicht gut in traditionelle Data Warehouses, die auf relationalen Datenbanken mit strukturierten Datensätzen basieren. Darüber hinaus sind Data Warehouses möglicherweise nicht in der Lage die Verarbeitungsanforderungen von großen Datenmengen zu erfüllen, die häufig oder sogar kontinuierlich aktualisiert werden müssen, wie beispielsweise Echtzeitdaten über den Aktienhandel, die Online-Aktivitäten von Website-Besuchern oder die Leistung mobiler Anwendungen.

Infolgedessen greifen viele der Unternehmen, die große Datenmengen sammeln, verarbeiten und analysieren, auf NoSQL-Datenbanken sowie auf Hadoop und seine zugehörigen Datenanalysetools zurück.

YARN ist eine Cluster-Management-Technologie und eines der wichtigsten Merkmale der zweiten Generation von Hadoop.

MapReduce ist ein Software-Framework, das es Entwicklern ermöglicht, Programme zu schreiben, die große Mengen unstrukturierter Daten parallel über einen verteilten Cluster von Prozessoren oder Einzelcomputern verarbeiten.

Spark ist ein Open-Source-Framework für die parallele Verarbeitung, das es Anwendern ermöglicht, umfangreiche Datenanalyseanwendungen über Cluster-Systeme hinweg auszuführen.

HBase stellt einen spaltenorientierter Schlüssel/Wertdatenspeicher dar, der auf dem Hadoop Distributed File System (HDFS) läuft.

Hive ist ein Open-Source-Data-Warehouse-System zur Abfrage und Analyse großer Datensätze, die in Hadoop-Dateien gespeichert sind.

Kafka ist ein verteiltes Publish/Subscribe-Messaging-System, das entwickelt wurde, um traditionelle Message Broker zu ersetzen.

Pig ist eine Open-Source-Technologie, die einen High-Level-Mechanismus für die parallele Programmierung von MapReduce-Aufträgen bietet, die auf Hadoop-Clustern ausgeführt werden.

Funktionsweise Big Data Analytics

In einigen Fällen werden Hadoop-Cluster und NoSQL-Systeme in erster Linie als Landeplätze und Staging-Bereiche für Daten verwendet, bevor sie in ein Data Warehouse oder eine analytische Datenbank zur Analyse geladen werden – in der Regel in einer zusammengefassten Form, die für relationale Strukturen günstiger ist.

Häufiger wird jedoch von großen Datenanalyse-Nutzern das Konzept einer Hadoop-Datensammlung übernommen, das als primäres Repository für eingehende Rohdatenströme dient. In solchen Architekturen können Daten direkt in einem Hadoop-Cluster analysiert oder durch eine Verarbeitungsmaschine wie Spark laufen.

Wie im Data Warehousing, ist ein solides Datenmanagement ein entscheidender erster Schritt im Prozess der Big Data Analytics. Die im HDFS gespeicherten Daten müssen ordnungsgemäß organisiert, konfiguriert und partitioniert werden, um eine gute Leistung sowohl aus Extraktions-, Transformations- und Lade-(ETL)-Integrationsjobs als auch aus analytischen Abfragen zu erzielen.

Sobald die Daten fertig sind, können sie mit der Software analysiert werden, die häufig für erweiterte Analyseprozesse verwendet wird. Dazu gehören auch Werkzeuge für:

Data Mining, das Datensätze auf der Suche nach Mustern und Beziehungen durchsucht;

Predictive Analytics, die Modelle zur Vorhersage des Kundenverhaltens und anderer zukünftiger Entwicklungen erstellen;

maschinelles Lernen, das Algorithmen zur Analyse großer Datensätze nutzt; und

deep learning, ein fortgeschrittener Ableger des maschinellen Lernens.

Textmining

Text Mining und statistische Analysesoftware können ebenso eine Rolle im Big Data Analytics Prozess spielen wie Mainstream Business Intelligence Software und Datenvisualisierungswerkzeuge. Sowohl für ETL- als auch für Analyseapplikationen können Abfragen in MapReduce mit Programmiersprachen wie R, Python, Scala und SQL geschrieben werden, den Standardsprachen für relationale Datenbanken, die von SQL-on-Hadoop-Technologien unterstützt werden.

Big Data Analytics Anwendungen

Big Data Analytics-Anwendungen beinhalten oft Daten aus internen Systemen und externen Quellen, wie z.B. Wetterdaten oder demografische Daten über Verbraucher, die von externen Informationsdienstleistern zusammengestellt wurden. Darüber hinaus werden Streaming-Analyseanwendungen in großen Datenumgebungen immer häufiger eingesetzt, da die Benutzer Echtzeitanalysen von Daten durchführen möchten, die über Stream-Verarbeitungsmaschinen wie Spark, Flink und Storm in Hadoop-Systeme eingespeist werden.

Cloud Clustering

Frühe große Datensysteme wurden meist vor Ort eingesetzt, insbesondere in großen Unternehmen, die große Datenmengen sammelten, organisierten und analysierten. Aber auch Hadoop-Anbieter wie Cloudera-Hortonworks, die die Verteilung des Big Data Frameworks auf die AWS- und Microsoft Azure-Clouds unterstützen, haben die Einrichtung und Verwaltung von Hadoop-Clustern in der Cloud erleichtert. Benutzer können jetzt Cluster in der Cloud erstellen, sie so lange wie nötig ausführen und sie dann mit nutzungsabhängigen Preisen offline nehmen, die keine laufenden Softwarelizenzen erfordern.

Big-Supply-Chain-Analytics

Große Datenmengen sind in Supply-Chain-Analytics immer nützlicher geworden. Big-Supply-Chain-Analytics verwendet große Datenmengen und quantitative Methoden, um Entscheidungsprozesse in der gesamten Lieferkette zu verbessern. Insbesondere große Supply-Chain-Analysen erweitern Datensätze für erweiterte Analysen, die über die traditionellen internen Daten aus Enterprise Resource Planning (ERP) und Supply Chain Management (SCM) Systemen hinausgehen.

Fundierte Entscheidungen treffen

Darüber hinaus implementiert Big-Supply-Chain-Analytics hochwirksame statistische Methoden für neue und bestehende Datenquellen. Die gewonnenen Erkenntnisse ermöglichen besser informierte und effektivere Entscheidungen, die der Lieferkette zugutekommen und sie verbessern.

Mögliche Fallstricke von Big Data Analytics-Initiativen sind ein Mangel an internen Analysefähigkeiten und die hohen Kosten für die Einstellung erfahrener Datenwissenschaftler und Dateningenieure, um die Lücken zu schließen.

Webinar: Supply Chain – Lieferketten optimieren mit Analytics Die Anforderungen an Lieferketten werden in Zeiten der Globalisierung immer komplexer. Neue Technologien und immer weiter steigende Datenmenge n treiben die digitale Transformation an. Auch bei Lieferketten spielt die Digitalisierung zunehmend eine essenzielle Rolle. Nutzen Sie Ihre Datenmengen bereits effektiv?

Entstehung und Wachstum von Big Data Analytics

Der Begriff Big Data wurde erstmals Mitte der 90er Jahre verwendet, um auf wachsende Datenmengen zu verweisen. Im Jahr 2001 erweiterte Doug Laney, damals Analyst bei der Unternehmensberatung Meta Group Inc., den Begriff der großen Daten, um auch die Zunahme der Vielfalt der von Unternehmen erzeugten Daten und die Geschwindigkeit einzuschließen. Diese drei Faktoren – Volumen, Geschwindigkeit und Vielfalt – wurden als die 3Vs von Big Data bekannt, ein Konzept, das Gartner nach der Übernahme der Meta Group und der Einstellung von Laney im Jahr 2005 populär machte.

Hadoop Distributed Processing Framework

Separat dazu wurde das Hadoop Distributed Processing Framework 2006 als Apache Open Source Projekt gestartet, das den Grundstein für eine geclusterte Plattform legte, die auf Basis von Standard-Hardware aufbaut und für den Betrieb großer Datenanwendungen ausgelegt ist. Bis 2011 begann Big Data Analytics einen festen Platz in Organisationen und der Öffentlichkeit einzunehmen, zusammen mit Hadoop und verschiedenen damit verbundenen Big Data Technologien, die um sie herum entstanden waren.

Für wen lohnt sich Big Data Analytics?

Ursprünglich, als das Hadoop-Ökosystem Gestalt annahm und zu reifen begann, waren große Datenanwendungen in erster Linie die Provinz großer Internet- und E-Commerce-Unternehmen wie Yahoo, Google und Facebook sowie Analyse- und Marketing-Dienstleister. In den folgenden Jahren wurde die Big Data Analytics jedoch zunehmend von Einzelhändlern, Finanzdienstleistern, Versicherern, Gesundheitsorganisationen, Herstellern, Energieunternehmen und anderen Unternehmen genutzt.

Ist Ihre Neugierde geweckt und Sie sind bereit Ihr Unternehmen effizienter zu gestalten? Dann können Sie sich gerne unverbindlich bei uns melden. Wir helfen Ihnen dabei Ihr Unternehmen zu revolutionieren!

FAQ Big Data Analytics

Was ist Big Data Analytics?

Big Data Analytics beschreibt die Untersuchung großer und vielfältiger Datensätze oder großer Datenmengen, um Informationen aufzudecken. Unternehmen können durch diese Daten dann fundierte Geschäftsentscheidungen treffen.

Wie funktioniert Big Data Analytics?

Es gibt keine einzelne Technologie, die Big Data Analytics umfasst, sondern diese wird durch mehrere Verfahren durchgeführt. Zu den wichtigsten gehören Machine Learning, Data Government, Data Mining, Hadoop, In-Memory-Analyse, Predictive Analytics und Text Mining.

Beitrag als PDF-Dokument downloaden

×

Als PDF herunterladen

Xing

LinkedIn

Facebook

E-Mail