La gestion efficace des données est au cœur de la réussite de nombreuses entreprises modernes. Dans cet article, nous explorerons la transformation de la Data Factory d'une grande enseigne, en partenariat avec la STIM, au sein du domaine Offre (Proximité, Produit, Performance) grâce à l'outil Impact. Cette plateforme d'analyse et de prise de décision est essentielle pour les négociations avec les fournisseurs. Découvrez comment cette mission a relevé des défis majeurs et apporté des solutions innovantes.
La Data Factory de cette entreprise, en collaboration avec la STIM, au sein du Domaine Offre (Proximité, Produit, Performance), utilise l'outil Impact pour analyser et prendre des décisions stratégiques concernant les matières premières alimentaires et non alimentaires, y compris l'énergie. L'objectif principal a été d'assister les acheteurs dans leurs négociations avec les fournisseurs.
La mission était double : tout d'abord, refondre l'outil du point de vue du design, puis le relier à des sources de données actualisées et non obsolètes.
Pour atteindre ces objectifs ambitieux, l'équipe a opté pour une centralisation des données au sein d'un datahub. Ce Datahub regroupe des données à différents niveaux (données brutes, données raffinées, données propres) et une équipe dédiée à la gestion du patrimoine et du dictionnaire des données déploie les flux en fonction des demandes des domaines Métiers.
L'une des solutions clés a été la récupération de données à partir de fichiers Excel d'acheteurs. Ces données ont été centralisées et uniformisées en termes de nomenclature, créant ainsi un format de données unifié.
La mise en œuvre de la centralisation des données a rencontré des défis importants. L'équipe souhaitait devenir un agrégateur de données, mais la gestion des données récoltées dans différents domaines s'est avérée complexe. Le moment et la manière de récupérer les données ont été des défis majeurs, avec la contrainte de la pertinence (de nombreuses données bruyantes mais non pertinentes).
Malgré les défis, la centralisation des données a été mené avec succès. Les bases de données non pertinentes et obsolètes ont été extraites lors d'un POC (Proof of Concept), démontrant la puissance des données agrégées et partagées entre les domaines. Auparavant, il n'y avait pas de transversalité entre les domaines.
Parmi les leçons apprises, formaliser les règles de base et bien cadrer les besoins pour éviter la collecte excessive de données sont essentiels. De plus, un modèle de données propre est indispensable pour gérer les inévitables changements et comparer des données historiques et actuelles tout en conservant le même code, l'API et la même approche d'analyse des données.
En fin de compte, cette mission a été un succès, démontrant l'importance de la gestion efficace des données. Les perspectives futures incluent l'obtention de financements pour poursuivre la transversalité des données entre les domaines et surveiller la centralisation de manière continue. La Data Factory a ouvert la voie à une utilisation plus intelligente des données pour des décisions plus éclairées.