retour au blog
REX
4 min

Transformation réussie d'une Data Factory

Découvrez comment une enseigne majeure a transformé sa Data Factory en optimisant ainsi les négociations fournisseurs et les décisions stratégiques.
Ecrit par
Marine Bonlieu
Publié le
April 11, 2024

Révolution de la gestion des données chez une Grande Enseigne : une success story de la Data Factory

La gestion efficace des données est au cœur de la réussite de nombreuses entreprises modernes. Dans cet article, nous explorerons la transformation de la Data Factory d'une grande enseigne, en partenariat avec la STIM, au sein du domaine Offre (Proximité, Produit, Performance) grâce à l'outil Impact. Cette plateforme d'analyse et de prise de décision est essentielle pour les négociations avec les fournisseurs. Découvrez comment cette mission a relevé des défis majeurs et apporté des solutions innovantes.

Introduction

La Data Factory de cette entreprise, en collaboration avec la STIM, au sein du Domaine Offre (Proximité, Produit, Performance), utilise l'outil Impact pour analyser et prendre des décisions stratégiques concernant les matières premières alimentaires et non alimentaires, y compris l'énergie. L'objectif principal a été d'assister les acheteurs dans leurs négociations avec les fournisseurs.

Objectifs fixés pour la mission et problèmes à résoudre

La mission était double : tout d'abord, refondre l'outil du point de vue du design, puis le relier à des sources de données actualisées et non obsolètes.

Méthodologie : Description des méthodes, outils et approches utilisés pour analyser et résoudre les problèmes

Pour atteindre ces objectifs ambitieux, l'équipe a opté pour une centralisation des données au sein d'un datahub. Ce Datahub regroupe des données à différents niveaux (données brutes, données raffinées, données propres) et une équipe dédiée à la gestion du patrimoine et du dictionnaire des données déploie les flux en fonction des demandes des domaines Métiers.

Solutions proposées : Les recommandations et solutions proposées par WiTADA pour résoudre le problème

L'une des solutions clés a été la récupération de données à partir de fichiers Excel d'acheteurs. Ces données ont été centralisées et uniformisées en termes de nomenclature, créant ainsi un format de données unifié.

Mise en œuvre : Détails sur la mise en œuvre des solutions et défis rencontrés

La mise en œuvre de la centralisation des données a rencontré des défis importants. L'équipe souhaitait devenir un agrégateur de données, mais la gestion des données récoltées dans différents domaines s'est avérée complexe. Le moment et la manière de récupérer les données ont été des défis majeurs, avec la contrainte de la pertinence (de nombreuses données bruyantes mais non pertinentes).

Résultats : Évaluation des résultats obtenus et impact des solutions mises en place

Malgré les défis, la centralisation des données a été mené avec succès. Les bases de données non pertinentes et obsolètes ont été extraites lors d'un POC (Proof of Concept), démontrant la puissance des données agrégées et partagées entre les domaines. Auparavant, il n'y avait pas de transversalité entre les domaines.

Enseignements & bonnes pratiques : Les leçons apprises et les bonnes pratiques

Parmi les leçons apprises, formaliser les règles de base et bien cadrer les besoins pour éviter la collecte excessive de données sont essentiels. De plus, un modèle de données propre est indispensable pour gérer les inévitables changements et comparer des données historiques et actuelles tout en conservant le même code, l'API et la même approche d'analyse des données.

Conclusion et perspectives futures

En fin de compte, cette mission a été un succès, démontrant l'importance de la gestion efficace des données. Les perspectives futures incluent l'obtention de financements pour poursuivre la transversalité des données entre les domaines et surveiller la centralisation de manière continue. La Data Factory a ouvert la voie à une utilisation plus intelligente des données pour des décisions plus éclairées.

Continuez la lecture