Tout savoir sur l’agilité des données

Votre entreprise, comme toute entreprise, repose sur les données. Elles constituent l’asset le plus précieux d’une organisation. Pourtant, trop souvent, cet actif n’est pas exploité à sa juste valeur. Si le potentiel des données est quasiment illimité, la réalité est moins idyllique. Dans les faits, les spécialistes de l’intégration de données et les data engineers sont incapables de répondre aux exigences toujours plus urgentes et complexes en matière de données, qu'elles proviennent de l’organisation ou de partenaires.

Cela est en partie dû à la fragmentation de l’infrastructure de données traditionnelle. En moyenne, chaque organisation s’appuie sur plus de 400 sources de données. 41 % des équipes de support affirment être ralenties par des silos de données. La plupart des entreprises passent plus de temps à rechercher et à préparer leurs données qu’à les utiliser, ce qui empêche les collaborateurs d’obtenir même les données les plus élémentaires.

La quantité, la qualité ou la pertinence des données dont les entreprises disposent ne sont pas à l'origine du problème. La plupart du temps, tous ces éléments sont réunis. Ce qui fait défaut, c’est l’agilité des données.

Définition de l’agilité des données

L’agilité des données correspond à la rapidité et la flexibilité nécessaires pour répondre rapidement, avec fiabilité et à grande échelle aux exigences de l'entreprise, quelle que soit l’infrastructure de données sous-jacente (par exemple, hybride ou multicloud).

L’agilité est une composante essentielle de la santé globale des données, c'est-à-dire de la manière dont les données d’une organisation soutiennent ses objectifs. Les données sont considérées comme en bonne santé si elles sont facilement identifiables, compréhensibles et sources de valeur pour tous les collaborateurs qui en ont besoin. Ces caractéristiques doivent être maintenues tout au long du cycle de vie des données.

Pour garantir une véritable agilité des données, une organisation doit disposer d’un écosystème flexible et évolutif, avec une gestion de données de bout en bout. Les collaborateurs seront alors en mesure de répondre aux exigences changeantes du marché.

Les risques des données fragmentées

Les équipes data et les équipes IT qui focalisent leur attention sur les processus de migration des données sans se soucier de leur santé se heurtent à des données inexploitables. Elles se retrouvent face à des requêtes lentes et à des données cloisonnées, avec des pipelines de données fragiles, et une incapacité à évoluer efficacement. Ce phénomène ne cesse de s'aggraver depuis quelques années avec l’essor des cloud data warehouses.

Les professionnels d'intégration de données et de data science sont ceux qui en subissent les plus lourdes conséquences. Ils sont submergés de demandes en matière de données et insatisfaits par le rythme de leur livraison. Les solutions actuelles, basées sur un codage manuel ou une combinaison de solutions indépendantes nécessitent d'importants délais de conception et reposent sur des connaissances institutionnelles qui doivent être entretenues et réinventées à chaque nouvelle intégration ou projet. Les demandes s’accumulent, ce qui met en péril la livraison des données et leur fiabilité, ainsi que la capacité à évoluer.

Les responsables data et IT, tels que le directeur des systèmes d'information ou le directeur des données (respectivement, Chief Information Officer, CIO et Chief Data Officer, CDO, en anglais), font aussi face aux conséquences de flux de données rigides, fragiles ou cloisonnés qui empêchent l’organisation de tirer pleinement parti des efforts de toute transformation digitale. En l'absence d'une vision claire et globale des données à l'échelle de toute l'entreprise, les responsables IT ne sont pas en mesure de faire appliquer les politiques de données à l'ensemble de l'organisation. La lenteur des requêtes et le cloisonnement des données entravent également la conformité réglementaire, mettant l’organisation à risque.

En parallèle, les experts data des différents départements n’obtiennent pas les données brutes dont ils ont besoin pour prendre des décisions éclairées en temps opportun. Les données cloisonnées limitent le potentiel de l'analytique des données. Cela met à mal le respect des délais, augmente le coût des projets, empêche une analyse exhaustive ou entraîne une répétition inutile des efforts déjà déployés dans les différents métiers. Les lacunes en matière de compétences techniques empêchent également les experts data métier d’optimiser rapidement la valeur de leurs données.

En mettant l’accent sur l’agilité des données, les équipes de data engineering gagnent en rapidité et en flexibilité pour répondre aux demandes de données de l'entreprise et faire évoluer leurs opérations sans se soucier de problème de continuité ou de compatibilité.

L’agilité des données en action : témoignages clients


AB InBev : l’agilité des données au service de vos papilles

La société internationale AB InBev, spécialisée dans les boissons et la fabrication de bière, possède un portefeuille diversifié de plus de 500 marques de bière, dont Budweiser, Corona, Stella Artois, Beck’s, Hoegaarden et Leffe. Avant leur rachat, bon nombre de ces brasseurs opèraient en tant qu'entités indépendantes avec leurs propres systèmes internes. L’intégration des systèmes et des données des entreprises rachetées représentait donc un défi majeur.

« Nos équipes internes, qu’il s’agisse de data scientists, d’équipes opérationnelles ou métier, éprouvaient des difficultés à rassembler les données issues de plus de 100 systèmes sources, à les analyser et à prendre des décisions en temps opportun en matière de développement de produits, de chaîne d’approvisionnement, de campagne marketing, et plus encore. », explique Harinder Singh, Global Director of Data Strategy & Solution Architecture chez AB InBev.

Tout le travail de gestion des données devrait être effectué sous l’égide d’AB InBev. Talend a pu extraire des données provenant de plus de 100 sources, en temps réel et par batch, dans le cloud et on-prem. Les utilisateurs internes ne consacrent désormais que 30 % de leur temps à collecter des données, ce qui leur permet de dédier les 70 % restants à les analyser.

Les données permettent de comprendre les goûts des consommateurs et d’analyser les nouvelles demandes, comme les bières pauvres en calories par exemple, ou de déterminer les préférences en fonction des différentes saisons. Les données permettent également d'améliorer les expériences en boutique et au bar, d'optimiser la chaîne d’approvisionnement, le développement de produits, et plus encore.

MeDirect Bank : Un passage au cloud en douceur

MeDirect Bank est une banque et une société de services financiers maltaise, qui propose des services couvrant les comptes de dépôt, les fonds communs de placement et la gestion du patrimoine. Toutes les entreprises proposant des services financiers ont dû finaliser leur transformation digitale. Les données sont au cœur de cette transition.

L’ancienne plateforme de données de MeDirect était une plateforme Postgres on-prem. L’entreprise a choisi Snowflake comme plateforme cloud et Talend pour la réplication des données on-prem dans le cloud.

Kurt Zahra, data architect chez MeDirect, explique : « Tous nos processus, qu'ils concernent le chargement ou l’intégration des données, ont été développés dans Talend. Nous étions convaincus que la meilleure façon d’assurer un passage au cloud en douceur serait de continuer à tirer parti de cet investissement, de conserver nos Jobs existants et de les améliorer, afin de pouvoir charger nos données sur la nouvelle plateforme dédiée. Nous intégrons 40 à 50 sources de données avec Talend ; certaines sont internes, d’autres externes. »

L’utilisation de Talend pour la migration ayant été très simple, malgré le nombre de systèmes impliqués, Kurt Zahra était certain que les données du nouveau système seraient exactes.

Comment améliorer l’agilité de vos données ?

La plateforme de données low-code et universelle pour le cloud de Talend élimine les obstacles financiers et techniques liés à la gestion des données de bout en bout. Avec Talend, vous pouvez accélérer tous les aspects du cycle de vie des données dans tout type d’environnement, sans avoir recours au codage manuel.

Les API de données et les services API facilitent le partage rapide et sécurisé des données en interne comme avec les partenaires. Cela réduit ainsi la charge de travail des intégrateurs de données et des data engineers. Les produits Talend, Pipeline Designer et Stitch permettent un déploiement rapide de flux de données robustes en un temps réduit et avec moins d'expertise technique requise.

Inscrivez-vous dès aujourd’hui pour un essai gratuit et découvrez comment Talend peut contribuer à l’agilité des données de votre organisation.

Prêt à faire vos premiers pas avec Talend ?