Data Science ist die Kunst Wissen aus Daten zu gewinnen, bzw. Sinn in große Datenbestände zu bekommen. Durch die fortschreitende Digitalisierung, Industrie 4.0 und IoT (Internet of Things) explodiert die Zahl der gesammelten Daten. Statistiken belegen, dass wir heute in nur zwei Tagen genauso viele Daten speichern wie seit Beginn der zivilisierten Menschheit bis zum Jahr 2000. Für Wirtschaft, Industrie und Forschung gewinnt Data Science stark an Bedeutung und ist nicht mehr weg zu denken.
Was ist „Data Science“?
Data Science ist der Oberbegriff und Grundlage für zahlreiche technologische Disziplinen, wie
Künstliche Intelligenz
Machine Learning
Deep Learning
Data Mining
Big Data Analytics
Business Intelligence
Data Analysis
Predictive Analytics
und viele mehr.
Um all diese Technologien sinnvoll, effektiv und gewinnbringend einzusetzen, sind ausgewiesene Spezialisten nötig. Diese unterstützen Sie bei der Erarbeitung und Umsetzung der richtigen Daten-Strategie, der Architektur, der Infrastruktur und der Entwicklung von Algorithmen.
ABLAUF VON DATA SCIENCE:
Wir sind die Spezialisten für Data Science und PostgreSQL
„GOOD DATA SCIENTISTS ARE AS RARE AS UNICORNS“
CYBERTEC ist seit vielen Jahren auf diese Services spezialisiert und verfügt über ein internationales Team an Data Scientists, -Architects und -Engineers. Wir betreuen weltweit unsere Kunden dabei, einen nachhaltigen Mehrwert aus ihren Daten zu generieren.
Sensorik
Finanzdaten
Versicherungsdaten
Steuerungsdaten
Geodaten
Healthcare
…
Lesen Sie in diesem Blogpost, warum Sie PostgreSQL nutzen sollten, um den größten Mehrwert aus Ihren Daten zu erhalten.
Während immer mehr Beratungsunternehmen umfangreiche Leistungen rund um das Thema Big Data anbieten, haben andere Unternehmen immer noch kein klares Verständnis darüber, was Big Data tatsächlich bringt und wie es am effizientesten eingesetzt werden kann. Bevor sich Unternehmen für die praktische Umsetzung einer Big-Data-Initiative entscheiden, untersuchen sie in der Regel, ob ihre Wettbewerber solche Projekte schon erfolgreich umgesetzt haben, um den Aufwand gegen das Nutzen abzuwägen.
Unsere Experten in der Big Data Beratung haben eine Sekundärforschung auf der Basis von in der Zeitperiode 2015-2019 weltweit veröffentlichten Studien und Berichten durchgeführt. Außerdem haben wir unsere Forschung auch mit den Stimmen von namhaften Unternehmen aus unterschiedlichen Branchen ergänzt, die ihre Erfahrungen bei der Einführung von Big Data geteilt haben.
In diesem Abschnitt werden die folgenden Segmente behandelt: kleine, mittlere, große und sehr große Unternehmen weltweit und in Deutschland. Als Grundlage für diese Art der Klassifizierung dient die Beschäftigtenzahl in einem Unternehmen:
Kleine Unternehmen (1-100 Mitarbeiter).
Mittlere Unternehmen (101-1.000 Mitarbeiter).
Große Unternehmen (1.001-5.000 Mitarbeiter).
Sehr große Unternehmen (mehr als 5.000 Mitarbeiter).
Weltweit
Big Data wird in erster Linie in sehr großen Unternehmen (mit mehr als 5.000 Mitarbeitern) eingesetzt: 70% davon geben an, dass sie bereits Big Data nutzen. [1] Von allen Unternehmenstypen sind sehr große Unternehmen (mit mehr als 5.000 Mitarbeitern) am meisten daran interessiert, Big Data für die Optimierung von Data Warehouses zu verwenden. [1] 43-45% der kleinen, mittleren und großen Unternehmen nutzen bereits Big Data und sind auch offen, es in Zukunft weiter einzusetzen. [1] Die drei wichtigsten Anwendungsfälle für Big Data in mittelgroßen, großen und sehr großen Unternehmen sind die Optimierung von Data Warehouses, die vorausschauende Wartung (Predictive Maintenance) und Kundenanalysen. [1] Von allen Unternehmenstypen sind kleine Unternehmen (bis zu 100 Mitarbeiter) am meisten daran interessiert, Big Data für Kundenanalysen zu verwenden. [1]
Deutschland
Weltweit
Big Data wird weltweit in solchen Branchen wie Telekommunikation, Gesundheitswesen und Finanzdienstleistungen am aktivsten genutzt. [2]
Telekommunikation
Zu den drei wichtigsten Anwendungsfällen in der Telekommunikation zählen Kundengewinnung (93%), Netzwerkoptimierung (85%) und Kundenbindung (81%). [2] Die Telekommunikation ist ein absoluter Vorreiter in Bezug auf die Nutzung von Big Data weltweit: 87% der Unternehmen profitieren bereits von Big Data, während die übrigen 13% angeben, dass sie in Zukunft möglicherweise Big Data nutzen werden. [1] Es wird geplant, das Portfolio an Big-Data-Anwendungsfällen in der Telekommunikation mit der location-based Analyse von Geräten (46%) und Revenue Assurance (45%) zu erweitern. Die Optimierung von Preisen, Call Centern und Netzen gehört ebenfalls zu den Prioritäten. [2]
Gesundheitswesen
Fast 60% der befragten Einrichtungen nutzen bereits Big Data und die übrigen 40% sind aufgeschlossen, um eine Big-Data-Initiative zukünftig zu starten. [1] Personalisierte Behandlung (98%), die Anzahl der Hospitalisierungen zu prognostizieren (92%) und Praxisverwaltung und -optimierung (92%) sind die beliebtesten Big-Data-Anwendungsfälle im Gesundheitswesen. [2] Gesundheitsorganisationen planen, Big Data auch für die Patientensegmentierung (31%) und die Optimierung der klinischen Forschungen (25%) einzusetzen. [2]
Finanzdienstleistungen
76% der Finanzinstitute sind derzeit Big-Data-Nutzer. [1] Finanzdienstleister verwenden Big Data dafür, um Risiken einzuschätzen (89%) sowie Betruge (86%) und Bedrohungen zu erkennen (86%), sowie für Kundenanalysen, um ihre Angebote zu personalisieren (93%). [2] Zu den drei wichtigsten zusätzlichen Anwendungsfällen, die Finanzdienstleister 2017-2018 hinzufügen wollten, zählen die location-based Analyse der Sicherheit (66%), der algorithmische Handel (57%) und Analysen von Influencern (37%). [2] Im Jahre 2017 investierten Finanzdienstleister vor allem in die Predictive Analytics (38%). In der Prioritätenliste von 2018 nahm diese Art der Datenanalyse doch den zweiten Platz (mit 29%) ein und gab Raum den neuen führenden Technologien - Künstlicher Intelligenz (KI) und Maschinellem Lernen (Machine Learning, ML). [3]
Bildung
In der Bildung verwenden nur 25% der befragten Bildungseinrichtungen Big Data. Im Vergleich zu Telekommunikation (87%), Finanzdienstleistungen (76%), Gesundheitswesen (60%) und Technologiebranchen (60%) steht Big Data nur am Anfang Ihres Weges in den Bildungsbereich. Aber 67% sind dafür offen, zukünftig Big Data zum Einsatz kommen zu lassen. [1]
Versicherung
Hadoop – Anwendungsfälle
Weltweit
Mit der gesundheitlichen Risikoprüfung hat die SparkassenVersicherung (SV) erstmals einen Prozess mittels Big-Data-Analytics automatisiert. Dazu hat sie eine eigene Plattform geschaffen, die eine schnelle Integration weiterer KI-Anwendungen in die Produktiv-Systeme ermöglicht.
Zu viel Handarbeit
Mit den Big Data Labs hat die SparkassenVersicherung ein Entwicklungslabor geschaffen, das sich gezielt mit dem Einsatz von Big-Data-Analysen beschäftigt. Dazu zählen auch Methoden wie Machine Learning (ML) und Künstliche Intelligenz (KI). Im September hat erstmals eine KI-Anwendung das Labor verlassen und fand Eingang in die Produktivprozesse beim Abschluss von Lebensversicherungen.
Auf der einen Seite ist der Antragsprozess der Lebensversicherung komplex, auf der anderen Seite sind Teile davon dunkelverarbeitet. Einer der häufigsten Gründe, den Antrag aus der Dunkelverarbeitung herauszusteuern, ist die gesundheitliche Risiko-Prüfung. Bislang genügten dazu auch im Grunde irrelevante Vorerkrankungen wie Heuschnupfen. Über ein Drittel der Anträge, die manuell geprüft und weiterverarbeitet werden mussten, gehen auf solche Fälle zurück.
Pirmin Dangelmaier, Hauptabteilungsleiter Unternehmenssteuerung und Prozesse, war diese überflüssige Arbeit im Fachbereich ein Dorn im Auge. Der Initiator der Big-Data-Analytics-Aktivitäten in der SV und sein Team suchten nach Abhilfe. Wie Dangelmaier berichtet, habe man zunächst testen wollen, ob es möglich ist, mit Hilfe von Big Data eine prozessuale Steuerung zu entwickeln, die unnötige manuelle Arbeit einspart, um den Antragsprozess zu beschleunigen und zu optimieren.
Im Big Data Lab wurden dazu maschinelle Modelle entwickelt, mit denen Prozesse, die bislang für eine Dunkelverarbeitung zu komplex waren, automatisiert werden können. Dies betraf die gesundheitliche Risikoprüfung speziell bei Risikolebens- und Berufsunfähigkeitsversicherungen. Die SV setzt dabei eine KI ein, die entsprechend trainiert wurde.
„Wir sind damit effizienter, schneller und kundenfreundlicher. Wir haben einen zentralen Geschäftsprozess automatisiert – ohne dabei datenschutztechnisch kritische Gesundheitsdaten außer Haus zu geben.“
Pirmin Dangelmaier, SparkassenVersicherung
Modular und plattformbasiert
In der SV ist für den kompletten Big-Data-Analytics-Prozess die Abteilung „Data Analytics“ unter Leitung von Fabian Harms zuständig. Diese sucht gemeinsam mit Fachabteilungen nach erfolgversprechenden Use Cases, analysieren diese im Big Data Lab und bauen entsprechende Prototypen. Wenn die erfolgreich sind, werden sie zur Produktionsreife weiterentwickelt. Im letzten Schritt werden diese Module in die Systeme der SV integriert.
Dabei setzen die Big-Data-Experten auf ein eigenes Plattform-Modell, die Big Data Factory. Das gestatte es, verschiedene Anwendungen zu integrieren, ohne jedes Mal wieder das Rad neu erfinden zu müssen, so Abteilungsleiter Harms.
„Der Einsatz von Big Data Analytics ist ein wichtiger Teil der Digitalisierung in der SV. Mit Hilfe der KI-Modelle können wir unseren Kunden und Vertriebspartnern schnellere, bessere und einfachere Prozesse ermöglichen.“
Andreas Jahn, SV-Vorstandsvorsitzender
Inzwischen haben einige der so entstandenen KI-Anwendungen Produktionsreife erreicht und können nun in den Regelbetrieb überführt werden. Der Use Case „Biometrie“ ist die erste Anwendung, bei der dies umgesetzt wurde. Die SV sieht sich damit bei der Integration von Big-Data-Analytics-Anwendungen in produktiven Geschäftsprozessen an der Spitze der öffentlichen Versicherer. Weitere Anwendungsfälle seien bereits in der Umsetzung und sollen in den kommenden Monaten produktiv gehen. hj