Was ist Datenredundanz?

Eine Datenredundanz liegt vor, wenn in einem Datenbank- oder Datenspeichersystem dieselben Daten gehalten werden. Identische Daten können in zwei unterschiedlichen Feldern innerhalb einer einzigen Datenbank oder zwei unterschiedlichen Punkten in mehreren Softwareplattformen oder Umgebungen vorliegen. Erfahren Sie, wie Sie mit MDM Datenredundanz und damit zusammenhängende Probleme vermeiden können.

Weitere Informationen

AI vs. maschinelles Lernen vs. Deep Learning

Unter Artificial Intelligence (AI) versteht man Maschinen, die menschliche Intelligenz nachahmen, um bestimmte Aufgaben durchzuführen. Maschinelles Lernen (ML) ist eine Unterdisziplin von AI, bei der Computer anhand von Big Data lernen, ohne dass sie entsprechend programmiert sind. Deep Learning (DL), ein Teilbereich von ML, bildet Abstraktionen von Datensätzen, um Bedeutung zu konstruieren.

Weitere Informationen

Was ist Data-Profiling?

Data-Profiling eröffnet neue Geschäftschancen. Unternehmen, die Data-Profiling für die Organisation und Analyse ihrer Daten nutzen, können ihr Erfolgspotenzial steigern und sich klare Wettbewerbsvorteile sichern.

Weitere Informationen

Was ist Stammdatenverwaltung?

Die Stammdatenverwaltung (Master Data Management, MDM) sorgt dafür, dass Organisationen immer mit einer einzigen Version aktueller, „wahrer“ Daten arbeiten können – und auf der Grundlage dieser Informationen Entscheidungen treffen können. Erfahren Sie, welche Vorteile MDM Unternehmen bietet, auf welche Herausforderungen Sie sich einstellen sollten und wie die ersten Schritte aussehen.

Weitere Informationen

Was ist Hadoop?

Hadoop ist ein Java-basiertes Open Source-Framework zum Speichern und Verarbeiten von Big Data. Die Daten werden dabei auf preiswerten Commodity-Servern gespeichert, die in Clustern verbunden sind. Sein verteiltes Dateisystem ist fehlertolerant und ermöglicht eine parallele Verarbeitung.

Weitere Informationen

Data Lake vs. Data Warehouse

Sowohl Data Lakes als auch Data Warehouses sind etablierte Begriffe, wenn es um das Speichern von Big Data geht. Doch beide Begriffe sind nicht gleichzusetzen. Ein Data Lake ist ein großer Pool mit Rohdaten, für die noch keine Verwendung festgelegt wurde. Bei einem Data Warehouse dagegen handelt es sich um ein Repository für strukturierte, gefilterte Daten, die bereits für einen bestimmten Zweck verarbeitet sind.

Weitere Informationen

Was ist MapReduce?

MapReduce ist ein Programmiermodell bzw. Muster im Hadoop-Framework, das für den Zugriff auf Big Data im Hadoop File System (HDFS) verwendet wird. Die Map-Funktion nimmt die Eingabedaten, erstellt Paare, verarbeitet sie und generiert einen weiteren Satz an Zwischenpaaren als Ausgabe.

Weitere Informationen

Was ist ein Data Mart?

Ein Data Mart ist eine subjektorientierte Datenbank, die für die Anforderungen einer bestimmten Benutzergruppe konzipiert ist. Data Marts bieten Zugriff auf Informationen in einem Data Warehouse oder operativen Datenspeicher innerhalb von Tagen statt Monaten oder länger und beschleunigen so die Geschäftsprozesse.

Weitere Informationen

Was ist Datenbankintegration?

Bei einer Datenbankintegration werden Informationen aus mehreren Quellen aggregiert und eine aktuelle, saubere Version der gesamten Organisation bereitgestellt. Es handelt sich dabei um den operativen Kern von Big Data. Hier erfahren Sie mehr über die bei der Integration eingesetzten Prozesse, Partner und Tools.

Weitere Informationen

Abschluss von Verträgen zur Weitergabe von Daten [DSGVO-Schritt 15]

Die Datenschutz-Grundverordnung (DSGVO) verpflichtet Organisationen und ihre Lieferanten zum Schutz personenbezogener Daten. Um Verantwortlichkeit zu schaffen und klare Zuständigkeiten zuzuweisen, müssen rechtmäßige Verträge zur Weitergabe von Daten abgeschlossen werden. Erfahren Sie, wie Sie bei einem Datenschutzvorfall richtig reagieren und personenbezogene Daten schützen.

Weitere Informationen

Verwaltung des Informationslebenszyklus [DSGVO-Schritt 14]

Die Datenschutz-Grundverordnung (DSGVO) verpflichtet Unternehmen dazu, den betroffenen Personen eine einfache Auskunft über ihre Daten und/oder eine einfache Löschung zu ermöglichen. Um dieser Forderung nachzukommen, müssen Unternehmen den gesamten Informationslebenszyklus von der Erstellung bis hin zur Löschung verwalten (Informationslebenszyklusmanagement). Dazu gehört auch die Konsolidierung von Daten, die über verschiedene Systeme hinweg verteilt sind.

Weitere Informationen

Verwaltung von Analysemodellen [DSGVO-Schritt 12]

Analysemodelle nutzen Kundenprofile, um künftige Verhaltensmuster vorauszusagen. Mit der Einführung der Datenschutz-Grundverordnung (DSGVO) müssen Unternehmen sicherstellen, dass diese Modelle nicht die Rechte der betroffenen Personen beeinträchtigen. Erfahren Sie, wie Ihre Organisation die nötigen Voraussetzungen schaffen kann, um alle relevanten Vorgaben einzuhalten.

Weitere Informationen

Konsolidierung der Datenherkunft [DSGVO-Schritt 11]

Unter der Datenschutz-Grundverordnung (DSGVO) müssen Organisationen die Herkunft personenbezogener Daten über verschiedene Systeme hinweg zurückverfolgen. Durch ein umfassendes Verständnis der Datenherkunft können Unternehmen genau ermitteln, welche Person oder welches System zu welchem Zeitpunkt eine Änderung an den Daten vorgenommen hat. Auf diese Weise lassen sich Datenqualität und -sicherheit verbessern.

Weitere Informationen

Die Bedeutung einer Datentaxonomie [DSGVO-Schritt 2]

Mit Inkrafttreten der DSGVO ist die Schaffung einer Datentaxonomie – Klassifizierung von Daten in Kategorien und Unterkategorien – essenziell. Die Datentaxonomie erleichtert die Ausführung eines Profilings, die Bereinigung von Daten und die Anwendung einer einheitlichen Terminologie und Semantik über verschiedene Systeme hinweg.

Weitere Informationen