Real-Time Big Data Platform

Exploitez des analyses en temps réel et en streaming pour en dégager ultra-rapidement des connaissances.

Profitez de flux de données en temps réel

Libérez le potentiel de l’analytique en temps réel et de l’analytique des objets IoT en exploitant la puissance du Spark Streaming et du machine learning. L’intégration de Talend Real Time Big Data génère du code natif qui peut s’exécuter dans votre environnement mono-cloud, multi-cloud ou hybride. Vous pouvez donc commencer à travailler avec Spark Streaming dès aujourd’hui et transformer tous vos pools de données en connaissance fiables et exploitables en temps réel.

Fonctionnalités Real-Time Big Data Platform

Développement d’API

  • Concepteur graphique des API (Visual API Designer)
  • API Tester pour concevoir vos tests d’API
  • Support OAS/Swagger(tm) et RAML
  • Simulation automatique des API
  • Automatisation des tests API
  • Documentation hébergée des API
  • Importation des contrats d’API dans Talend Studio
+ Voir plus

Licences et support technique

  • Licences par abonnement avec garantie et indemnisation
  • 2 licences gratuites Talend Data Preparation et 2 licences gratuites Talend Data Stewardship pour toute souscription à Talend
  • Disponible sous forme de service cloud et de logiciel téléchargeable
+ Voir plus

Outils de conception et de productivité

  • Génère le code natif (Spark et MapReduce) en batch
  • Génère du code natif Spark Streaming
  • Mappage visuel pour les jobs JSON, XML et EDI complexes dans Spark
  • Conception des jobs dans Spark et MapReduce
  • Traitement Spark sans serveur avec Databricks et Qubole
  • Support de répartition dynamique
  • Module de planificateur de jobs Hadoop avec YARN
  • Sécurité Hadoop pour Kerberos
  • Data lakes : importer, charger et décharger des données
  • Environnement de conception graphique
  • Travail collaboratif avec référentiel partagé
  • Intégration en continu/Livraison en continu
  • Mappage visuel des fichiers et documents complexes (JSON, XML et EDI)
  • Audit, comparaison des jobs, analyse d’impact, tests, débogage et mise au point
  • Passerelle des métadonnées (import/export des métadonnées, gestion centralisée des métadonnées)
  • Exécution et parallélisme à distance
  • Schéma dynamique, joblets réutilisables et projets de référence
  • Gestionnaire de référentiels
  • Supporte les opérations ETL et ELT
  • Assistants logiciels et visionneuse de données interactive
  • Versionnage
  • Suivi de l’évolution des bases de données (Change Data Capture, CDC)
  • Documentation automatique
  • Cloud Pipeline Designer
+ Voir plus

Qualité des données, libre-service et gouvernance

  • Profiling des données et analyse avec diagrammes et exploration des données
  • Automated data standardization, cleansing, and rules enforcement
  • Data privacy with masking and encryption
  • Portail sur la qualité des données avec supervision, reporting et tableaux de bord
  • Découverte sémantique avec détection automatique de structures
  • Survivance complète
  • Échantillonnage des données
  • Enrichissement, harmonisation, recherche floue et déduplication
  • Recherche par facettes, échantillonnage des données, découverte sémantique et auto-profilage
  • Curation sociale avec partage de données, marquage, évaluations et approbations
  • Référence croisée entre ensembles de données et préparations et/ou pipelines pour le lignage des données et l’analyse d’impact
  • Référence croisée entre ensembles de données et préparations et/ou pipelines pour le lignage des données et l’analyse d’impact
+ Voir plus

Connecteurs

  • Cloud : Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform, etc.
  • Entrepôt de données et data lakes Cloud : Snowflake, Amazon Redshift, Azure Data Lake Storage Gen2, Azure SQL Data Warehouse, Google BigQuery
  • Solutions big data supportées : Amazon EMR, Microsoft Azure HDInsight, Cloudera, Google Dataproc, Hortonworks, MapR
  • Cloudera Altus, Databricks, Qubole
  • Spark MLlib (classification, clustering, recommandation, régression)
  • NoSQL : Cassandra, Couchbase, DynamoDB, MongoDB, Neo4j, etc
  • Bases de données RDBMS/SGDBR : Oracle, Teradata, Microsoft SQL Server, etc.
  • SaaS : Marketo, Salesforce, NetSuite, etc.
  • Applications commerciales : SAP, Microsoft Dynamics, Sugar CRM, etc.
  • Technologies : Dropbox, Box, SMTP, FTP/SFTP, LDAP, etc.
  • En option, services de validation des adresses par des tiers
+ Voir plus

Composants

  • Composants Hadoop : HDFS, Hbase, Hive, Pig, Sqoop
  • Gestion des fichiers : ouvrir, déplacer, compresser, décompresser sans script
  • Contrôle et orchestration des flux de données et des intégrations de données à travers les jobs maîtres
  • Mapper, agréger, trier, enrichir et fusionner les données
  • Supporté en standard : REST, SOAP, OpenID Connect, OAuth, SAML, STS, WSDL, SWAGGER, etc.
  • Protocoles supportés : HTTP, JMS, MQTT, AMQP, UDP, Apache Kafka, WebSphere MQ, etc.
  • Structures d’intégration performantes pour la gestion des services : médiation, routage et messages
+ Voir plus

Préparation et intendance des données

  • Deux licences gratuites avec chaque abonnement
  • Importer, exporter et combiner des fichiers CSV, Parquet et AVRO
  • Export vers les solutions Tableau
  • Accès en libre-service et à la demande aux datasets validés
  • Partage des préparations et des datasets
  • Préparations opérationnelles dans tout flux d’intégration de données ou Big Data
  • Exécuter les préparations de données dans Apache Beam*
  • Découverte automatique, standardisation, profilage automatique, suggestions intelligentes et visualisation des données
  • Personnalisation du type sémantique pour le profilage automatique et la standardisation
  • Échantillonnage intelligent et sélectif et cycles d’exécution complets
  • Suivi et masquage des données (avec sécurité en fonction des rôles)
  • Nettoyage et enrichissement
  • Application d’intendance pour la compilation et la certification des données
  • Définition des modèles de données, de la sémantique des données et des données de profil en conséquence Define and apply rules
  • Fusion des données, identification des correspondances entre données, résolution des erreurs des données et arbitrage des données (classification et certification)
  • Orchestration des activités et collaboration dans le cadre des campagnes
  • Définition du rôle de chaque utilisateur, des workflows et priorités, attribution et délégation des tâches, ajout des balises et des commentaires
  • Intégration de l’intendance et gouvernance dans les flux d’intégration des données et gestion des rejets
  • Intégration de la certification humaine et de la résolution des erreurs dans les processus MDM
  • Prendre des décisions pour les correspondances des données qui ne peuvent pas être identifiées automatiquement
  • Déduplication des données selon besoin par machine learning
  • Audit et suivi des actions de résolution des erreurs des données. Suivi de l’avancement des campagnes. Défaire/refaire en fonction des besoins
+ Voir plus

Gestion et monitoring

  • Haute disponibilité, équilibrage de charge, basculement des travaux selon charge
  • Gestionnaire de déploiement et collaboration entre équipes
  • Gestion des utilisateurs, des groupes, des rôles, des projets et des licences
  • Gestion de moteurs d’exécution
  • Single Sign-On (SSO) integration with several SSO providers
  • Plan d’exécution et planification des jobs en fonction du temps et des événements
  • Points de contrôle, récupération après erreur
  • Gestion du contexte (développement, assurance qualité, production)
  • Collecte et affichage des Logs d’exécution
  • En option, module pour ajout d’utilisateurs Admin*
  • Clusters de moteurs pour les jobs
  • Adresses IP statiques*
  • Historique des Logs d’exécution des jobs
  • Environnements (2 Environnements pour les produits d’entrée de gamme, illimité pour les plates-formes)
  • Cloud Security Information and Event Management (SIEM), Intrusion Detection System (IDS), Intrusion Prevention System (IPS) and Web Application Firewall (WAF)
+ Voir plus

Qualité des big data

  • Opérations sur les données : nettoyage, profilage, masquage, analyse/parsing et correspondances (sur Spark et Hadoop)
  • Machine learning pour correspondances/déduplication des données
  • Supporte Cloudera Navigator et Apache Atlas
  • Profilage des fichiers HDFS
+ Voir plus

Gestion des services

  • System monitoring: JMX / Jolokia
  • Moteur d’exécution (Talend Runtime sur site, Talend Remote Engine cloud)
  • Containerized service generation
  • Accès aux statistiques en temps réel de l’activité des flux de messages
  • Référentiel d’artefacts intégré
  • Interface de déploiement des services de données et des routages
  • Administration des identités et autorisations
+ Voir plus

Intégration d’applications agiles

  • Création par glisser-déposer et simulation de services : services de routage, services de données, services Web/REST
  • Sécurité des services Web en fonction de politiques internes
  • Remise et routage des messages et événements avec Enterprise Integration Patterns (EIPs)
  • Structure de messagerie fiable basée sur ActiveMQ
  • Service Locator et Registry,,””
  • Outils en ligne de commande et outils de script
  • XML Key Management Specification (XKMS),,””
  • Développement et déploiement en tant que fonctionnalité OSGi
  • Déploiement et gestion d’un micro-service
  • Développement d’un micro-service
+ Voir plus

Profiling avancé des données

  • Détection des modèles de fraude selon la loi de Benford
  • Statistiques performantes avec seuils indicateurs
  • Analyse des groupes de colonnes
+ Voir plus

Respectez le budget de vos projets d’intégration de données

Talend keeps it flexible

Flexibles

Bénéficiez de coûts prévisibles et de ressources flexibles grâce à des abonnements annuels ou mensuels.

Talend keeps it predictable

Prévisibles

Talend facture au nombre d’utilisateurs, et non au volume de données ou au connecteur.

Talend keeps it simple

Simples

Coût total de possession divisé par deux à l’aide d’une solution unique, dans le cloud.

Le contexte digital crée une demande croissante de personnalisation des produits. Pour y répondre et innover, nous avons déployé pour les chercheurs de L’Oréal de nouvelles plates-formes numériques sur mesure avec, au cœur, Talend pour faciliter la gestion de plus de 50 millions de données par jour

Philippe Benivay, IS Experimental Data Intelligence - Equipe informatique de la R&I de L’Oréal

With Talend, capturing data at high speed from hundreds of data sources, we had fifty business projects in production for our financial, logistics, SCM, CRM business units in less than six months

Axel Frank, Solution Architect BI Platform

Prêt à faire vos premiers pas avec Talend ?