Détails clés
Solution d'intelligence économique pour l'analyse unifiée des données de construction.
-
DéfiAnalyse holistique de données provenant de multiples sources cloisonnées et de divers formats de données structurées et non structurées
-
SolutionSolution de veille stratégique pour des rapports et des analyses intelligents en temps réel
-
Technologies et outilsPowerBI, Azure, Data Lake, Databricks
Client
Le client est une société de gestion de centres de données de renommée mondiale. L'entreprise avait besoin d'un solution robuste de big data pour permettre une analyse unifiée de tous les projets de construction (en cours et historiques). La fonctionnalité suppose une analyse en temps réel des données avec une visualisation instantanée des KPI détaillés et des graphiques pour soutenir la gestion avec une visibilité multidimensionnelle sur tous les projets de construction, l'historique des prix et, en fin de compte, aider à prendre des décisions fondées sur des données.
Défi : les données non structurées étaient cloisonnées dans l'ensemble de l'organisation, ce qui rendait impossible une analyse holistique en temps réel.
Le problème était que le stockage existant du client ainsi que l'approche du traitement des données non structurées en silos étaient inefficaces. La transformation numérique était nécessaire pour construire une solution d'intelligence économique basé sur l'architecture sans serveur du lac de données pour une collecte rapide des données et un traitement en temps réel. La portée du projet supposait les types de données suivants : documents de tous les départements sur chaque projet, documents historiques de Google Workspaces (word, complex layout xlsx, pdf et SAP).
Solution : un lac de données sans serveur basé sur la plateforme Azure pour des analyses commerciales en temps réel et des rapports intelligents.
Après avoir analysé les besoins du client, notre équipe d'ingénieurs big data a réalisé le projet en deux phases : validation du concept et déploiement de la production :
- Déploiement d'un lac de données centralisé sur Architecture sans serveur Azure
- Données ingérées à partir de Google Workspace et de SAP
- Réalisation de l'ETL de données non structurées utiliser Azure Databricks
- Mise en place de tableaux de bord dans PowerBI - pour permettre une vision globale de la tarification des projets passés et à venir, du calendrier, des données sur les fournisseurs, etc.
Le pipeline de données traite et met à jour des centaines de fichiers par centre de données et par jour.
Le développement de la solution de veille stratégique a pris 2 semaines pour le PoC et 2 mois pour la production en direct.
Examinez de plus près l'architecture de la solution développée pour comprendre comment les données ont été traitées :
Au cours de ce travail, nous avons ingéré, stocké, traité et visualisé des données provenant de diverses sources.
Résultat : des rapports en temps réel grâce à la BI
Au cours du projet, notre équipe de data scientists et d'ingénieurs a réalisé Développement du Big Data.
En conséquence, nous avons développé une solution de business intelligence personnalisée pour unifier et analyser les données historiques des projets de construction en utilisant les données cloisonnées de l'entreprise du client. Désormais, grâce à notre solution technologique, le client peut prendre des décisions commerciales fondées sur des données, en s'appuyant sur l'analyse de masses de données agrégées à partir de diverses sources, dans un rapport actualisé basé sur des données pertinentes.