Was sind Datensilos?

In Silos abgelegte Daten stören die Zusammenarbeit, vergeuden Ressourcen und tragen zu höheren Risiken bei. Erfahren Sie, wie Datensilos entstehen, und befolgen Sie 4 Schritte, um Datensilos in Ihrem Unternehmen aufzubrechen.

Weitere Informationen

5 Möglichkeiten, um Ihre Big Data zu optimieren

Angesichts der wachsenden Menge an Big Data sollten Unternehmen ihre Prozesse optimieren. Big Data zu optimieren bedeutet zum Beispiel, (1) Latenz bei der Verarbeitung zu vermeiden, (2) Daten in Echtzeit zu nutzen und (3) Daten zuerst zu analysieren und erst dann Entscheidungen zu treffen. Erfahren Sie alles, was Sie wissen müssen, um heute noch loszulegen.

Weitere Informationen

Aufbau eines verwalteten Data Lake in der Cloud

Der Zweck eines Data Lake liegt im Wesentlichen darin, einen direkten und umfassenden Zugriff auf rohe (ungefilterte) Unternehmensdaten bereitzustellen. Data Lakes sind eine Alternative zur Speicherung einer begrenzten Anzahl unterschiedlicher Datensätze in verteilten, heterogenen Datensilos.

Weitere Informationen

Erstellung von Metadaten für die Verknüpfung von Clustern aus Konfigurationsdateien

In diesem Tutorial erfahren Sie, wie Sie Hadoop-Cluster-Metadaten erstellen, indem Sie die Konfiguration aus den Hadoop-Konfigurationsdateien importieren.Dieses Tutorial basiert auf Talend Data Fabric Studio Version 6 und einem Hadoop-Cluster: Cloudera CDH Version 5.4.1. Erstellen Sie eine neue Hadoop-Cluster-Metadaten-DefinitionWählen Sie die Ansicht Integration aus.Erweitern Sie im Project Repository den Bereich Metadata, klicken Sie mit der rechten Maustaste auf Hadoop Cluster und klicken Sie anschließend auf Create Hadoop Cluster, um den Assistenten zu öffnen.Geben Sie im „Hadoop Cluster Connection“-Assistenten im Feld „Name“ MyHadoopCluster_files ein. Geben Sie im Feld „Purpose“ Cluster connection metadata ein. Geben Sie im Feld „Description“ Metadata to connect to a Cloudera CDH 5.4 cluster ein und klicken Sie auf Next.

Jetzt ansehen

Was ist eine Data Pipeline?

Die vier kritischen Aktionen in Datenpipelines dienen allesamt der Datenintegration. Die Ausgangsbasis stellen die Rohdaten dar, die letztendlich zu aussagekräftigen Informationen und Erkenntnissen führen sollen.

Weitere Informationen