Noch nie hatten Unternehmen Zugriff auf so viele Daten. Doch wie nutzt man diese riesigen Mengen an strukturierten und unstrukturierten Daten sinnvoll, um Verbesserungen im gesamten Unternehmen umzusetzen? Angesichts der schieren Menge an Informationen stellt diese Aufgabe eine enorme Herausforderung dar. Wird diese nicht richtig angegangen, kann das den Nutzen der Daten schmälern.

Data-Mining ist der Prozess, mit dem Unternehmen Muster in Daten erkennen, um Erkenntnisse zu gewinnen, die Ihnen bei der Bewältigung ihrer Geschäftsanforderungen helfen. Er ist sowohl für Business-Intelligence als auch für Data Science von entscheidender Bedeutung. Unternehmen können eine Vielzahl von Data-Mining-Verfahren einsetzen, um Rohdaten in verwertbare Erkenntnisse umzuwandeln. Zu diesen Verfahren gehört alles von hochmoderner künstlicher Intelligenz bis hin zur einfachen Datenaufbereitung. Die genannten Verfahren sind beide wichtig, um den Nutzen von Dateninvestitionen zu maximieren.

  1. Datenbereinigung und -aufbereitung
  2. Muster erkennen
  3. Klassifizierung
  4. Assoziation
  5. Ausreißererkennung
  6. Clustering
  7. Regression
  8. Prädiktion
  9. Sequenzielle Muster
  10. Entscheidungsbäume
  11. Statistische Verfahren
  12. Visualisierung
  13. Neuronale Netze
  14. Data-Warehousing
  15. Langzeit-Memory-Verarbeitung
  16. Maschinelles Lernen und künstliche Intelligenz

Laden Sie Der ultimative Leitfaden zur Datenqualität jetzt herunter.
Weitere Informationen

1. Datenbereinigung und -aufbereitung

Die Datenbereinigung und -aufbereitung ist ein entscheidender Teil des Data-Mining-Prozesses. Rohdaten müssen bereinigt und formatiert werden, damit sie in den verschiedenen Analysemethoden eingesetzt werden können. Die Datenbereinigung und -aufbereitung umfasst verschiedene Elemente der Datenmodellierung, -transformation, -migration, ELT, Datenintegration und -aggregierung. Dieser Schritt ist notwendig, um grundlegende Merkmale und Eigenschaften von Daten zu verstehen und zu bestimmen, wie sie optimal genutzt werden können.

Der geschäftliche Nutzen der Datenbereinigung und -aufbereitung liegt auf der Hand. Ohne diesen ersten Schritt sind Daten für ein Unternehmen entweder bedeutungslos und aufgrund mangelnder Qualität nicht vertrauenswürdig. Unternehmen müssen ihren Daten vertrauen können, sich auf die Ergebnisse der Analysen verlassen können und von den daraus abgeleiteten Maßnahmen überzeugt sein.

Für die Datenqualität und die richtige Data-Governance sind diese Schritte ebenfalls notwendig.

2. Muster erkennen

Muster zu erkennen, ist ein grundlegendes Data-Mining-Verfahren. Es umfasst das Identifizieren und das Monitoring von Trends oder Mustern in Daten, anhand derer intelligente Schlussfolgerungen über Geschäftsergebnisse gezogen werden. Erkennt ein Unternehmen beispielsweise einen Trend in Verkaufsdaten dient dieser direkt als Handlungsgrundlage und das Unternehmen kann monetären Nutzen aus den gewonnenen Erkenntnissen ziehen. Zeigen die Verkaufsdaten, dass ein bestimmtes Produkt bei einer bestimmten Bevölkerungsgruppe besonders gut ankommt, können Unternehmen dieses Wissen nutzen, um ähnliche Produkte oder Dienstleistungen zu entwickeln oder das Produkt noch besser auf diese Bevölkerungsgruppe ausrichten.

3. Klassifizierung

Klassifizierungsverfahren im Data-Mining umfassen die Analyse verschiedener Merkmale, die mit verschiedenen Arten von Daten assoziiert werden. Wenn Unternehmen die Hauptmerkmale dieser Datentypen identifiziert haben, können sie die Daten entsprechend kategorisieren oder klassifizieren. Das ist z. B. wichtig, um personenbezogene Informationen zu identifizieren, die Unternehmen möglicherweise schützen oder aus Dokumenten entfernen möchten.

4. Assoziation

Assoziation ist ein Data-Mining-Verfahren, das mit Statistik verwandt ist. Es verweist darauf, dass bestimmte Daten (oder Ereignisse, die in Daten gefunden wurden) mit anderen Daten oder datengetriebenen Ereignissen verknüpft sind. Es ist dem Konzept der Kookkurrenz ähnlich, das aus dem maschinellen Lernen bekannt ist: Das Vorliegen eines Ereignisses weist auf die Wahrscheinlichkeit eines anderen datengetriebenen Ereignisses hin.

Das Korrelationskonzept aus der Statistik ist dem der Korrelation im Data-Mining ebenfalls ähnlich. In diesem Fall bedeutet Korrelation, dass bei der Analyse von Daten ein Zusammenhang zwischen zwei Datenereignissen festgestellt wird: zum Beispiel die Tatsache, dass Hamburger häufig mit Pommes serviert werden.

Ansehen Fundamentals of Machine Learning jetzt herunter.
Jetzt ansehen

5. Ausreißererkennung

Bei der Ausreißererkennung werden sämtliche Anomalien in Datensätzen ermittelt. Sobald Unternehmen Abweichungen in ihren Daten finden, wird es einfacher, zu verstehen, warum es zu diesen kommt. Unternehmen können sich dann auf zukünftige Ereignisse einstellen, um ihre Geschäftsziele bestmöglich zu verwirklichen. Ein Beispiel: Die Nutzung von Transaktionssystemen für Kreditkarten steigt immer zu einer bestimmten Tageszeit stark an. Finden Unternehmen heraus, warum das der Fall ist, können sie ausgehend von dieser Erkenntnis die Verkäufe während des restlichen Tages ankurbeln.

6. Clustering

Clustering ist eine Analysetechnik, die visuelle Mittel nutzt, um Daten zu verstehen. Clustering-Mechanismen zeigen anhand von Grafiken, wie die Daten bzw. verschiedene Typen von Metriken verteilt sind. Clustering-Verfahren stellen die Datenverteilung außerdem mithilfe verschiedener Farben dar.

Diagramme sind für Cluster-Analysen ideal. Insbesondere anhand von Diagrammen und Clustering können die Nutzer sehen, wie Daten verteilt sind, um für Ihr Unternehmen relevante Trends zu erkennen.

7. Regression

Mithilfe von Regressionsverfahren kann man herausfinden, wie die Variablen in einem Datensatz zusammenhängen. Die Zusammenhänge sind in manchen Fällen kausal, in anderen Fällen korrelieren die Daten auch einfach miteinander. Regression ist ein einfaches White-Box-Verfahren, das ganz klar zeigt, wie die Variablen zusammenhängen. Regressionsverfahren kommen in Teilen der Vorhersage und Datenmodellierung zum Einsatz.

8. Prädiktion

Prädiktion ist einer der vier Zweige der Analyse und ein sehr wichtiger Aspekt des Data-Minings. Prädiktive Analysen nutzen Muster in aktuellen oder historischen Daten und zeigen auf, wie sich diese in der Zukunft fortsetzen könnten. So können Unternehmen aus ihren Daten herauslesen, welche Trends als Nächstes folgen werden. Es gibt verschiedene Ansätze für den Einsatz von prädiktiver Analyse. Einige der fortschrittlichsten Verfahren stützen sich auf Aspekte des maschinellen Lernens und der künstlichen Intelligenz. Die prädiktive Analyse ist jedoch nicht unbedingt von diesen Verfahren abhängig – sie kann auch mit einfacheren Algorithmen ermöglicht werden.

9. Sequenzielle Muster

Dieses Data-Mining-Verfahren konzentriert sich darauf, Abfolgen von Ereignissen zu erkennen, die aufeinander folgen. Das ist besonders beim Data-Mining von Transaktionsdaten nützlich. Mit diesem Verfahren lässt sich beispielsweise feststellen, welche Kleidungsstücke Kunden nach einem ersten Kauf, z. B. dem von ein Paar Schuhen, mit höchster Wahrscheinlichkeit als Nächstes kaufen werden. Sequenzielle Muster zu verstehen kann Unternehmen dabei helfen, Kunden weitere Artikel zu empfehlen, um ihren Umsatz anzukurbeln.

10. Entscheidungsbäume

Entscheidungsbäume sind eine bestimmte Art von prädiktivem Modell, mit dem Unternehmen Daten effektiv ausgewertet werden können. Aus technischer Sicht ist ein Entscheidungsbaum Teil des maschinellen Lernens. Aufgrund seiner Unkompliziertheit ist er im Maschinellen Lernen landläufig eher als White-Box-Verfahren bekannt.

Ein Entscheidungsbaum hilft Nutzern zu verstehen, wie sich die Dateneingaben auf die Datenausgaben auswirken. Wenn verschiedene Entscheidungsbaummodelle kombiniert werden, entstehen prädiktive Analysemodelle, die als „Random Forest“ bekannt sind. Komplizierte Random-Forest-Modelle werden im Maschinellen Lernen als Black-Box-Verfahren betrachtet, weil es nicht immer einfach ist, den Output ausgehend vom Input zu verstehen. In den meisten Fällen liefert diese einfache Form der Ensemble-Modellierung jedoch genauere Ergebnisse als einzelne Entscheidungsbäume.

11. Statistische Verfahren

Statistische Verfahren bilden den Kern der meisten Analysen, die in den Data-Mining-Prozess einfließen. Die verschiedenen Analysemodelle basieren auf statistischen Konzepten, die numerische Werte ausgeben, die mit bestimmten Geschäftszielen anwendbar sind. Im Fall von Bilderkennungssystemen verwenden neuronale Netze beispielsweise komplexe Statistiken, die unterschiedlich gewichtet sind und auf unterschiedlichen Messwerten basieren, um zu bestimmen, ob auf einem Bild ein Hund oder eine Katze zu sehen ist.

Bei statistischen Modellen handelt es sich um einen von zwei Hauptzweigen der künstlichen Intelligenz. Bei einigen statistischen Verfahren sind die Modelle statisch, während andere mit maschinellem Lernen gekoppelt sind und mit der Zeit besser werden.

12. Visualisierung

Datenvisualisierungen sind ein weiteres wichtiges Element des Data-Minings. Sie gewähren Nutzern ausgehend von Sinneswahrnehmungen visuelle Einblicke in die Daten. Datenvisualisierungen sind heutzutage dynamisch, nützlich für die Echtzeit-Visualisierung von Streaming-Daten und arbeiten mit verschiedenen Farben, die Trends und Muster in Daten aufzeigen.

Dashboards sind leistungsstarke Tools, die Datenvisualisierungen einzusetzen, um Data-Mining-Erkenntnisse zu gewinnen. Unternehmen können mithilfe von Dashboards verschiedene Kennzahlen im Blick behalten und Visualisierungen nutzen, um Muster in Daten visuell hervorzuheben, statt sich lediglich auf numerische Ausgaben statistischer Modelle zu stützen.

13. Neuronale Netze

Ein neuronales Netz ist ein bestimmter Typ von Machine-Learning-Modell, der oft bei KI und Deep Learning zum Einsatz kommt. Neuronale Netze verfügen über verschiedene Schichten, die die Art und Weise nachahmen, wie Neuronen im menschlichen Gehirn arbeiten – daher auch ihr Name. Sie sind eines der genauesten Machine-Learning-Modelle, die heutzutage eingesetzt werden.

Auch wenn neuronale Netze beim Data-Mining nützliche Tools sein können, sollten Unternehmen diese vorsichtig einsetzen: Einige dieser neuronalen Netzmodelle sind unglaublich komplex. Das macht es schwierig, zu verstehen, wie ein neuronales Netz einen Output ermittelt hat.

14. Data-Warehousing

Data-Warehousing ist ein wichtiger Teil des Data-Mining-Prozesses. Traditionell umfasst das Data-Warehousing die Speicherung strukturierter Daten in relationalen Datenbankmanagementsystemen, sodass sie für Business-Intelligence, Reporting und einfache Dashboard-Funktionen genutzt werden können. Heute gibt es Cloud Data Warehouses und Data-Warehouses in semistrukturierten und unstrukturierten Datenspeichern wie Hadoop. Data-Warehouses wurden zwar traditionell für historische Daten genutzt, viele moderne Ansätze können jedoch eine detaillierte Echtzeitanalyse der Daten liefern.

Laden Sie Cloud Data Warehouse Trends for 2019 jetzt herunter.
Weitere Informationen

15. Langzeit-Memory-Verarbeitung

Langzeit-Memory-Verarbeitung bezieht sich auf die Fähigkeit, Daten über längere Zeiträume hinweg zu analysieren. Die in Data-Warehouses gespeicherten historischen Daten eignen sich für diesen Zweck. Wenn ein Unternehmen über einen längeren Zeitraum hinweg Analysen durchführen kann, ist es in der Lage, Muster zu erkennen, die andernfalls zu subtil wären und verborgen bleiben würden. Ein Beispiel: Analysiert man die Fluktuation von Mitarbeitern über mehrere Jahre hinweg, kann man subtile Hinweise auf die Gründe finden. Diese Erkenntnisse können dabei helfen, die Abwanderung von Mitarbeitern in der Finanzbranche zu reduzieren.

16. Maschinelles Lernen und künstliche Intelligenz

Maschinelles Lernen und künstliche Intelligenz (KI) gehören zu den fortschrittlichsten Entwicklungen im Data-Mining. Fortschrittliche Formen des maschinellen Lernens wie etwa Deep Learning liefern bei der Arbeit mit großen Datenmengen hochpräzise Vorhersagen. Sie können folglich für die Verarbeitung von Daten in KI-Entwicklungen wie Computer-Vision, Spracherkennung oder anspruchsvoller Textanalyse wie dem Natural Language Processing eingesetzt werden. Diese Data-Mining-Verfahren eignen sich gut dafür, Nutzen aus semistrukturierten und unstrukturierten Daten zu ziehen.

Optimierung von Data-Mining-Tools

Angesichts der breiten Palette an Verfahren, die beim Data-Mining eingesetzt werden können, ist es wichtig, dass Sie über die richtigen Tools verfügen, um Ihre Analysen zu optimieren. Damit die Verfahren korrekt ausgeführt werden können, sind in der Regel mehrere verschiedene Tools oder ein Tool mit umfassenden Funktionen nötig.

Unternehmen können zwar Data-Science-Tools wie R, Python oder Knime für Maschine-Learning-Analysen nutzen – es ist aber wichtig, mithilfe eines Data-Governance-Tools auch die Compliance und die richtige Datenherkunft sicherzustellen. Darüber hinaus müssen Unternehmen mit Repositorys wie Cloud-Datenspeichern arbeiten, um Analysen durchführen und Dashboards und Datenvisualisierungen erstellen zu können, mit denen sie Business-Anwendern die Informationen aus den Analysen verständlich vermitteln können. Es gibt Tools mit allen diesen Funktionen. Wichtig ist es jedoch, eines oder mehrere Tools zu finden, die genau zu den Anforderungen Ihres Unternehmens passen.

Die Cloud und die Zukunft des Data-Minings

Cloud-Computing-Technologien hatten einen enormen Einfluss auf das Wachstum des Data-Minings. Cloud-Technologien eignen sich gut für die riesigen Mengen an semistrukturierten und unstrukturierten High-Speed-Daten, die die meisten Unternehmen heute bewältigen müssen. Die elastischen Ressourcen der Cloud lassen sich leicht skalieren, um diese Big-Data-Anforderungen zu erfüllen. Da Daten in vielen unterschiedlichen Formaten in der Cloud gespeichert werden können, sind auch mehr Tools erforderlich, um diese Daten im Zuge des Data-Minings in Erkenntnisse umzuwandeln. Außerdem werden fortschrittliche Formen des Data-Minings, wie z. B. KI und maschinelles Lernen, in der Cloud als Dienste angeboten.

Zukünftige Entwicklungen im Bereich des Cloud-Computings werden die Nachfrage nach effektiveren Data-Mining-Tools sicher weiter ankurbeln. In den nächsten fünf Jahren werden KI und maschinelles Lernen sicher noch stärker Einzug in unseren Alltag halten, als sie das heute schon tun. Da die Datenmengen in der Cloud täglich exponentiell wachsen, ist die Cloud der am besten geeignete Ort, um Daten zu speichern, zu verarbeiten und für den Unternehmenserfolg zu nutzen. Data-Mining-Ansätze werden sich also in Zukunft noch stärker auf die Cloud stützen, als sie das bereits tun.

Data-Mining: erste Schritte

Mit den richtigen Tools ist der Einstieg ganz einfach. Der Data-Mining-Prozess beginnt direkt nach dem Einlesen der Daten. Deshalb ist es wichtig, Datenaufbereitungs-Tools zu finden, die verschiedene Datenstrukturen unterstützen, die für Data-Mining-Analysen erforderlich sind. Unternehmen werden ihre Daten sicher auch klassifizieren wollen, um sie mithilfe der zahlreichen oben beschriebenen Verfahren zu untersuchen. Moderne Formen des Data-Warehousing sind dabei ebenso hilfreich wie verschiedene prädiktive und Machine-Learning- bzw. KI-Verfahren.

Für Unternehmen ist es praktisch, wenn sie für alle diese Data-Mining-Verfahren nur ein einziges Tool benötigen. Haben Unternehmen die Möglichkeit, die verschiedenen Data-Mining-Verfahren an einem Ort zu nutzen, können sie die für vertrauenswürdige Daten erforderlichen Datenqualitäts- und Data-Governance-Maßnahmen verstärken.

Als umfassende Anwendungssuite, deren Schwerpunkt auf der Datenintegration und -integrität liegt, erleichtert Talend Data Fabric das Data-Mining und hilft Unternehmen so, möglichst großen Nutzen aus ihren Daten zu ziehen. Testen Sie Talend Data Fabric noch heute, um Ihren Daten wichtige Erkenntnisse zu entlocken.