Piloter l’expérience client B2B grâce au Big Data
@ Orange
Principales réalisations
- Développement et mise en œuvre d'une plateforme Big Data Hadoop pour centraliser des données B2B chez Orange, simplifiant l'accès et l'analyse des données.
- Amélioration de la capacité de pilotage et d'optimisation des centres d'appels et de l'expérience client grâce à l'industrialisation de deux outils de visualisation de données
- Contribution à l’expansion et au renforcement d’une équipe, de zéro à dix personnes en un an, en assurant la transmission de connaissance et la continuité opérationnelle
Client
Orange est l'entreprise de télécommunications leader ou seconde dans la plupart des pays européens ainsi qu'en Afrique, avec un total de 266 millions de clients.
J'ai travaillé pour le service B2B données d'Orange France pendant deux année:
- la première en tant que Data Engineer, pour développer une plateforme Big Data.
- la deuxième en tant que Data Scientist, réalisant trois projets de Data Science basés sur les données nouvellement rendues disponibles.
Enjeux
En 2018, les données B2B d'Orange étaient réparties dans de nombreuses applications. Cela rendait le croisement des données long, complexe et difficile à standardiser. L'architecture et les outils BI existants ne permettaient pas non plus le stockage et l'analyse de données trop volumineuses et moins structurées.
À sa création, j'ai rejoint une équipe chargée de construire une plateforme Big Data Hadoop pour permettre l'accès à toutes les données B2B françaises en un seul endroit, de manière simple, et avec des outils modernes permettant de les traiter et analyser.
Process
Je suis arrivé au tout début du projet et j'ai participé à toutes les étapes, depuis la définition de l'architecture d'une plateforme Hadoop, à la construction d'un framework, à la réalisation de chaque module nécessaire et à l'expansion de l'équipe.
Voici les étapes auxquelles j'ai participé :
1.
Définition d’une architecture
Définition des normes de développement, des processus globaux, de l'organisation des fichiers, des nomenclatures, ...
2.
Montée en compétence
Apprendre à utiliser les différents outils Big Data nécessaires (Spark, Hive, Nifi, Sqoop, Oozie, Hue, Ambari, ...), et partager les meilleures pratiques.
3.
Construction d’un framework
Construire un framework Shell Bash pour permettre une utilisation facile de tous les outils nécessaires.
4.
Collecte des données
Collecter automatiquement des données de multiples sources avec Sqoop et Nifi.
5.
Ingestion des données
Ensuring the quality of the collected data and storing it in Operational Data Stores (ODS) with Hive (SQL-like).
6.
Transformation des données
Croiser différentes sources et construire les KPI souhaités selon les règles définies avec les équipes métier avec Hive ou Spark (Scala).a
7.
Exposition des données
Permettre à chaque application ou utilisateur d'accéder uniquement aux données dont il a besoin avec Hive ou Spark.
8.
Visualisation des données
Visualiser les données avec des outils comme Qlik Sense ou Plotly.
9.
Définir les étapes de déploiement
Pour chaque module, coder et documenter les étapes de déploiement pour l'installation ou la mise à jour en production.
10.
Automatiser
Pour chaque tâche devenant répétitive dans les étapes précédentes, coder un moyen automatisé de l'effectuer.
11.
Documenter et Transférer les Connaissances
Pour chaque module, documenter suffisamment pour qu'un nouvel arrivant puisse comprendre son fonctionnement seul. Veiller à ce que chacun sache comment tout fonctionne afin que l'équipe puisse continuer à travailler même en cas d'absence ou de démission.
Solution
Résultats
Un an plus tard, plus de dix personnes avaient rejoint l'équipe. Nous avions rassemblé les données de nombreuses sources, transformions et exposions les données pour deux produits data majeurs, de manière automatisée et industrielle.
Le premier produit permettait aux responsables des centres d'appels de piloter et suivre de manière détaillée l’activité de leur service
Le second permettait aux équipes expérience client et marketing d’explorer et mieux comprendre l'activité des clients sur divers supports numériques d’Orange (App mobile, sites, ..) et d’identifier des leviers pour améliorer leur expérience..
Enfin, de nouvelles données volumineuses et moins structurées étaient rendues disponibles pour une utilisation future, simple et centralisée. De plus, la plateforme permettrait de développer facilement de futurs projets de Machine Learning.
Méthodes et outils :
Méthodologie Agile, Knowledge Management
SQL, Scala, Bash Shell, Git
Hadoop, Spark, Hive, Nifi, Sqoop, Oozie, Hue, Ambari
Vous souhaitez échanger sur vos problématiques ou collaborer ?