Eine Publikation der Swissprofessionalmedia AG
Ausgabe 03/2018, 16.03.2018

Der Datenflut – einen Sinn geben

Daten spielen für KMU eine zunehmende Rolle als Entscheidungsgrundlage, Dienstleistung oder Wettbewerbsvorteil. Was steckt hinter den Trendbegriffen «Machine Learning», «Data Mining» oder «Big Data Analytics», und wie können die Methoden gewinnbringend angewendet werden?

Wer kennt nicht diese Hinweise beim Onlineshopping: «Personen, die diesen Artikel gekauft haben, interessierten sich auch für folgende Produkte». Ein Beispiel für das Nutzen von Data Mining: Die systematische Anwendung statistischer Methoden auf grosse Datenbestände mit dem Ziel, neue Querverbindungen und Trends zu erkennen. Maschinelles Lernen – oder Machine Learning – kann zusätzlich helfen, aus den zahlreichen Käufen der Kunden personalisierte Empfehlungen zu generieren.

Was früher nur für Grossunternehmen möglich war, ist jetzt auch für kleinere Firmen anwendbar. Heute kann jedes KMU ein grosses Datenarchiv aufbauen. Die Schwierigkeit besteht darin, aus diesen grossen Datenmengen nutzbare Informationen zu gewinnen. Am Institut für Data Science der FHNW entwickelt ein Team von Big-Data-Profis zusammen mit internationalen Partnern eine Software zur Vorhersage von Sonnenstürmen. Dabei nutzen sie komplexe Datenströme wie die Magnetfeldermessungen des NASA-Satelliten Solar Dynamics Observatory (SDO). Für die Kommunikations- und die Flugzeugindustrie eine nützliche Dienstleistung, da heftige Sonnenstürme elektronische Geräte in Satelliten beschädigen können.

Der Umgang mit Big Data ist anspruchsvoll: Die FHNW-Forschenden müssen ein Archiv von etwa 250 Terabytes Daten auswerten. Solch grosse, komplexe, schnelllebige und schwach strukturierte Daten können nicht mit den herkömmlichen Methoden der Datenverarbeitung erfasst werden. Sie brauchen dafür speziell optimierte Algorithmen und sehr leistungsfähige Computer.

Big Data für kleine Unternehmen: Mit Cloud-Computing kann auch ein KMU Kapazität und Rechenpower einkaufen. Zusammen mit der entsprechenden Software können kleinere Unternehmen «Big-Data»-Analysen durchführen und nützliche Informationen aus ihren Daten gewinnen. Als Quellen eignen sich neben Auswertungen von Informationen der Webseitennutzung auch Messwerte aus Produktionsanlagen. Aktuelles Beispiel: Für ein Unternehmen, das sich auf die Schätzung von Immobilien spezialisiert hat, entwickelt das Institut eine Software, die auf Basis von Vergleichsdaten direkt einen Schätzwert für den Baupreis ausgibt. Die Datenbasis liegt hier bei rund 150 000 Einträgen, also eine vergleichbar «kleine» Datenmenge, die aber mit Big-Data-Analysemethoden nützliche Informationen generieren kann.

Data Mining und Machine Learning: Sonnensturm-Vorhersage oder Immobilienschätzung, die Anwendungsbereiche mögen unterschiedlich sein, die Herausforderung bleibt die gleiche: Die Aufbereitung von Rohdaten in brauchbare Informationen. Ein Werkzeug dazu ist Data Mining, die systematische Anwendung von statistischen Methoden. Der Begriff umfasst den ganzen Prozess der «Wissensentdeckung» von der Datenbereinigung bis zur eigentlichen Analyse. Der Onlinehändler Amazon war ein Pionier bei der Anwendung dieser Methode. Mit persönlichen Empfehlungen ermunterte er die Kunden zum Kauf. Häufig werden Datenanalysen wie jene von Amazon mit Machine Learning gekoppelt: Das künstliche System lernt aus Beispielen und kann nach einer Lernphase die Erkenntnisse selbständig verallgemeinern. Im Gegensatz zum Data Mining, wo Gesetzmässigkeiten aus bestehenden Daten entdeckt werden, kann Machine Learning neue Muster erkennen und antizipieren.

Text-Mining und Natural Language Processing: Bei Anwendungen im Web handelt es sich bei der Datenform oft um Textbausteine. Um aus den Textdaten Bedeutungsstrukturen zu gewinnen, gesellen sich neben den statistischen auch noch linguistische Methoden zur Analyse. Eine interessante Erweiterung von Textanalyse ist Natural Language Processing (NLP): Dabei wird natürliche Sprache in Form von Text- oder Sprachdateien algorithmisch verarbeitet. Bietet auf einer Webseite ein Chat-Bot Hilfe an, steckt meist NLP dahinter. «Clippy» in Microsofts Windows war eine frühe Anwendung dieser Technologie, heute haben sich Siri, Cortana oder Alexa im Alltag etabliert.

Visual Analytics: Der Mensch kann Muster oder Trends relativ schnell erkennen, wenn Daten visualisiert werden. Visuelle Methoden der Datenanalyse können daher sehr effizient sein. Zum Beispiel können Beziehungen zwischen Webseiten, Tweets, Facebook-Freunden oder Amazon-Produkten als Graphen visualisiert werden. Aus diesen lassen sich sehr leicht Gruppierungen – auch Cluster genannt – identifizieren.

Diverse Einsatzmöglichkeiten

Die Anwendung von Datenanalyse ist in der Praxis vielfältig: Von der Marketingstrategie, der Immobiliensoftware über die Jobplattform bis zur Vorhersage von Sonnenstürmen. Überall dort, wo grosse Datenmengen generiert werden, können Big-Data-Methoden gewinnbringend eingesetzt werden. Dazu braucht es Data Scientists, die sich mit Algorithmen und Datenstrukturen auskennen. Da es sich bei Big-Data-Analysen oft um entdeckungsartige Vorgehen handelt, werden interpretierte Sprachen wie Python benutzt, die einfacher zu lernen sind als Programmiersprachen wie Java. (msc)


Fachhochschule Nordwestschweiz FHNW, Hochschule für Technik
5210 Windisch, Tel. 056 202 99 55
weiterbildung.technik@fhnw.ch



«Visual Analytics»: Die Vernetzung der Fidget-Spinner-Angebote auf Amazon visuell analysiert. (Bild: yasiv.com)


Prof. André Csillaghy, Leiter des Instituts für Data Science FHNW, hat sich auf Integration, Selektion und Speicherung von Daten spezialisiert.

Im Profil

CAS in «Data Science»

Start: 27. April 2018, Dauer: 12 Kurstage

Voraussetzungen: Mindestens 2 Jahre Berufserfahrung, Kenntnisse in Programmieren (Python) und die Bereitschaft, eine anspruchsvolle Weiterbildung zu absolvieren.

fhnw.ch/cas-data-science