Tout savoir sur l’agilité des données
Votre entreprise, comme toute entreprise, repose sur les données. Elles constituent l’asset le plus précieux d’une organisation. Pourtant, trop souvent, cet actif n’est pas exploité à sa juste valeur. Si le potentiel des données est quasiment illimité, la réalité est moins idyllique. Dans les faits, les spécialistes de l’intégration de données et les data engineers sont incapables de répondre aux exigences toujours plus urgentes et complexes en matière de données, qu'elles proviennent de l’organisation ou de partenaires.
Cela est en partie dû à la fragmentation de l’infrastructure de données traditionnelle. En moyenne, chaque organisation s’appuie sur plus de 400 sources de données. 41 % des équipes de support affirment être ralenties par des silos de données. La plupart des entreprises passent plus de temps à rechercher et à préparer leurs données qu’à les utiliser, ce qui empêche les collaborateurs d’obtenir même les données les plus élémentaires.
La quantité, la qualité ou la pertinence des données dont les entreprises disposent ne sont pas à l'origine du problème. La plupart du temps, tous ces éléments sont réunis. Ce qui fait défaut, c’est l’agilité des données.
Définition de l’agilité des données
L’agilité des données correspond à la rapidité et la flexibilité nécessaires pour répondre rapidement, avec fiabilité et à grande échelle aux exigences de l'entreprise, quelle que soit l’infrastructure de données sous-jacente (par exemple, hybride ou multicloud).
L’agilité est une composante essentielle de la santé globale des données, c'est-à-dire de la manière dont les données d’une organisation soutiennent ses objectifs. Les données sont considérées comme en bonne santé si elles sont facilement identifiables, compréhensibles et sources de valeur pour tous les collaborateurs qui en ont besoin. Ces caractéristiques doivent être maintenues tout au long du cycle de vie des données.
Pour garantir une véritable agilité des données, une organisation doit disposer d’un écosystème flexible et évolutif, avec une gestion de données de bout en bout. Les collaborateurs seront alors en mesure de répondre aux exigences changeantes du marché.
Les risques des données fragmentées
Les équipes data et les équipes IT qui focalisent leur attention sur les processus de migration des données sans se soucier de leur santé se heurtent à des données inexploitables. Elles se retrouvent face à des requêtes lentes et à des données cloisonnées, avec des pipelines de données fragiles, et une incapacité à évoluer efficacement. Ce phénomène ne cesse de s'aggraver depuis quelques années avec l’essor des cloud data warehouses.
Les professionnels d'intégration de données et de data science sont ceux qui en subissent les plus lourdes conséquences. Ils sont submergés de demandes en matière de données et insatisfaits par le rythme de leur livraison. Les solutions actuelles, basées sur un codage manuel ou une combinaison de solutions indépendantes nécessitent d'importants délais de conception et reposent sur des connaissances institutionnelles qui doivent être entretenues et réinventées à chaque nouvelle intégration ou projet. Les demandes s’accumulent, ce qui met en péril la livraison des données et leur fiabilité, ainsi que la capacité à évoluer.
Les responsables data et IT, tels que le directeur des systèmes d'information ou le directeur des données (respectivement, Chief Information Officer, CIO et Chief Data Officer, CDO, en anglais), font aussi face aux conséquences de flux de données rigides, fragiles ou cloisonnés qui empêchent l’organisation de tirer pleinement parti des efforts de toute transformation digitale. En l'absence d'une vision claire et globale des données à l'échelle de toute l'entreprise, les responsables IT ne sont pas en mesure de faire appliquer les politiques de données à l'ensemble de l'organisation. La lenteur des requêtes et le cloisonnement des données entravent également la conformité réglementaire, mettant l’organisation à risque.
En parallèle, les experts data des différents départements n’obtiennent pas les données brutes dont ils ont besoin pour prendre des décisions éclairées en temps opportun. Les données cloisonnées limitent le potentiel de l'analytique des données. Cela met à mal le respect des délais, augmente le coût des projets, empêche une analyse exhaustive ou entraîne une répétition inutile des efforts déjà déployés dans les différents métiers. Les lacunes en matière de compétences techniques empêchent également les experts data métier d’optimiser rapidement la valeur de leurs données.
En mettant l’accent sur l’agilité des données, les équipes de data engineering gagnent en rapidité et en flexibilité pour répondre aux demandes de données de l'entreprise et faire évoluer leurs opérations sans se soucier de problème de continuité ou de compatibilité.
L’agilité des données en action : témoignages clients
AB InBev : l’agilité des données au service de vos papilles
La société internationale AB InBev, spécialisée dans les boissons et la fabrication de bière, possède un portefeuille diversifié de plus de 500 marques de bière, dont Budweiser, Corona, Stella Artois, Beck’s, Hoegaarden et Leffe. Avant leur rachat, bon nombre de ces brasseurs opèraient en tant qu'entités indépendantes avec leurs propres systèmes internes. L’intégration des systèmes et des données des entreprises rachetées représentait donc un défi majeur.
« Nos équipes internes, qu’il s’agisse de data scientists, d’équipes opérationnelles ou métier, éprouvaient des difficultés à rassembler les données issues de plus de 100 systèmes sources, à les analyser et à prendre des décisions en temps opportun en matière de développement de produits, de chaîne d’approvisionnement, de campagne marketing, et plus encore. », explique Harinder Singh, Global Director of Data Strategy & Solution Architecture chez AB InBev.
Tout le travail de gestion des données devrait être effectué sous l’égide d’AB InBev. Talend a pu extraire des données provenant de plus de 100 sources, en temps réel et par batch, dans le cloud et on-prem. Les utilisateurs internes ne consacrent désormais que 30 % de leur temps à collecter des données, ce qui leur permet de dédier les 70 % restants à les analyser.
Les données permettent de comprendre les goûts des consommateurs et d’analyser les nouvelles demandes, comme les bières pauvres en calories par exemple, ou de déterminer les préférences en fonction des différentes saisons. Les données permettent également d'améliorer les expériences en boutique et au bar, d'optimiser la chaîne d’approvisionnement, le développement de produits, et plus encore.
UNOS : sauver des vies grâce à l’intégration de données
L’organisation privée à but non lucratif United Network for Organ Sharing (UNOS) est en charge du système de transplantation d’organes des États-Unis, sous contrat avec le gouvernement fédéral. UNOS regroupe des centaines de professionnels de la greffe et du prélèvement d’organes, et des milliers de bénévoles.
« Nous savions que nous avions besoin d’un outil d’entreprise capable d’intégrer toutes nos technologies dans un seul pipeline et d’éliminer le codage manuel », explique Jamie Sutphin, Big Data Services Architect pour UNOS. « Avec Talend, nous sommes désormais en mesure d’automatiser le processus d’intégration des systèmes et de traitement de données. Nous avons réduit le temps consacré à cette tâche essentielle de 18 heures à 3 ou 4 heures. »
Il n'a fallu que deux mois et demi à UNOS pour mettre en service la fonctionnalité Organ Offer Report. Les centres de transplantation qui y ont accès peuvent désormais consulter les bio-statistiques relatives à un organe spécifique, telles que le groupe sanguin et les antigènes, ainsi que l’historique des greffes effectuées au cours des trois derniers mois.
« Avec une petite équipe de développement, nous pouvons être très efficaces et productifs en matière d'organisation et de codage », explique Jamie Sutphin. Il résume l'expérience d'UNOS avec Talend ainsi : « Nous sommes particulièrement satisfaits de Talend, qui répond exactement à nos attentes. La solution Talend résout des problèmes que nous ne pouvions pas résoudre avant son déploiement, et intègre des systèmes que nous ne pouvions pas intégrer auparavant. En réalité, nous avons du mal à identifier des cas d’usage auxquels Talend ne saurait répondre, car c’est une solution extrêmement polyvalente. »
Comment améliorer l’agilité de vos données ?
La plateforme de données low-code et universelle pour le cloud de Talend élimine les obstacles financiers et techniques liés à la gestion des données de bout en bout. Avec Talend, vous pouvez accélérer tous les aspects du cycle de vie des données dans tout type d’environnement, sans avoir recours au codage manuel.
Les API de données et les services API facilitent le partage rapide et sécurisé des données en interne comme avec les partenaires. Cela réduit ainsi la charge de travail des intégrateurs de données et des data engineers. Les produits Talend, Pipeline Designer et Stitch permettent un déploiement rapide de flux de données robustes en un temps réduit et avec moins d'expertise technique requise.
Inscrivez-vous dès aujourd’hui pour un essai gratuit et découvrez comment Talend peut contribuer à l’agilité des données de votre organisation.