La nouvelle sandbox fournit aux ingénieurs de données, un moyen simple et rapide de construire des pipelines de données intelligents et à haute performance

Redwood City, CA - 11 septembre 2018

Talend (NASDAQ: TLND), un leader mondial des solutions d’intégration de données dans le cloud, annonce aujourd’hui, lors de la conférence Strata Data à New York, une nouvelle sandbox qui permet aux développeurs et aux ingénieurs de données d'avoir accès à des technologies avancées de machine learning, afin qu'ils puissent facilement créer des pipelines de données intelligents. Avec la Sandbox Talend Big Data et Machine Learning et son guide d’ulisation, les ingénieurs de données peuvent utiliser des modèles prédéfinis, détaillés étape par étape, de machine learning et qui exploite Apache Spark, Spark Machine Learning Library (MLlib) et Spark Streaming, en quelques minutes et sans codage. Les personnes intéressées peuvent télécharger la sandbox gratuitement ici.

« Il y a un énorme manque de compétences qui fait que les développeurs et les ingénieurs de données ont du mal à mettre en œuvre des scénarios de big data et de machine learning, afin de générer de la valeur  », déclare Ashley Stirrup, CMO de Talend.  « Le développement spécifique de scénarios d’intégration big data se révélent souvent problèmatique lors du passage à la production, avec des coûts de maintenance élevés, de nouvelles tâches d'intégration manuelle à effectuer et la re-implantation d'algorithmes de machine learning.  Avec la Sandbox Talend Big Data et Machine Learning, les équipes peuvent lancer des fonctionnalités de machine learning en quelques minutes, et faire plus rapidement le transition de la phase pilote à la mise en production. »

Quatre modèles prédéfinis de machine learning détaillés étape par étape, sont inclus dans un guide d’utilisation, avec la Sandbox Talend Big Data et Machine Learning. Les développeurs et ingénieurs de données peuvent rapidement démarrer avec un environnement entièrement configuré de traitement Spark et créer ainis de la valeur, en utilisant les scénarios prêts à l’emploi de Talend, notamment :

  • Moteur de recommandation: Automatise une offre de recommandation de films grâce au machine learning.
  • Moteur d'évaluation de risques en temps réel: Réduit les risques grâce à la prévision de prêts en temps réel.
  • Maintenance prédictive des objets connectés: Optimise les performances et le cycle de vie des distributeurs automatiques à l'aide des données de capteurs.
  • Optimisation d’un Data Warehouse: Décharge le traitement des données sur Spark pour une vision plus rapide et plus approfondie, à moindre coû

En complément des exemples pratiques de machine learning, la Sandbox Talend Big Data et Machine Learning propose une version d'évaluation gratuite de la plateforme primée, Talend Real-Time Big Data :

  • Plus de 900 composants et connecteurs dont Spark, Spark Streaming, Spark Machine Learning Library (MLlib), Kafka, NoSQL, AWS, Azure, Google, Salesforce, et plus encore.
  • Des composants de machine learning prêts à l'emploi pour la classification, le regroupement, la recommandation et la régression.
  • Les plateformes de big data de Cloudera, Hortonworks et MapR, dans un environnement virtuel Docker prêt à l'emploi.

Cette nouvelle sandbox permet aux professionnels de travailler plus intelligemment avec le machine learning et l'intégration de données, ainsi que d'opérationnaliser facilement des modèles de machine learning créés par les équipes de data sciences. Avec une souscription à Talend, les clients disposeront d’une portabilité optimale pour exécuter les projets de leur sandbox dans des environnements de cloud privé, multi-cloud (AWS, Google, Azure), hybride, Talend Cloud, ou en local.

Plus d’informations sur la Sandbox Talend Big Data et Machine Learning, sont disponibles ici. Pour plus de détails sur l'ensemble du portefeuille de solutions de Talend, rendez-vous sur www.talend.com.

Vous aimez cette histoire ? Partagez là sur Twitter : .@Talend lance une nouvelle Sandbox Big Data et Machine Learning pour faciliter la mise en place de pipelines de données plus intelligents https://bit.ly/2QcaifU