Che cos’è una pipeline di dati?

Attraverso le quattro azioni cruciali eseguite all’interno delle pipeline di dati è possibile ottenere l’integrazione dei dati. Il processo parte da dati grezzi per produrre alla fine informazioni fruibili.

Guarda ora

Guida per principianti all’elaborazione in batch

L’elaborazione in batch è un metodo di esecuzione di job sui dati, utilizzabile quando le risorse lo permettono, che richiede solo una minima interazione da parte dell’utente, consentendo di migliorare l’efficienza e automatizzare i processi.

Guarda ora

Hortonworks and Talend Sandbox

Hortonworks delivers enterprise-class Hadoop capable of supporting interactive, batch and real-time data access. The Hortonworks and Talend Big Data Sandbox includes a preloaded virtual machine to get up and running quickly: Hadoop can be tested by loading, manipulating and profiling data in its native format through Talend's easy to use drag-and-drop interface and 900 connectors.

Guarda ora