Piloter l’expérience client B2B grâce au Big Data

@ Orange

Principales réalisations

  • Développement et mise en œuvre d'une plateforme Big Data Hadoop pour centraliser des données B2B chez Orange, simplifiant l'accès et l'analyse des données.
  • Amélioration de la capacité de pilotage et d'optimisation des centres d'appels et de l'expérience client grâce à l'industrialisation de deux outils de visualisation de données
  • Contribution à l’expansion et au renforcement d’une équipe, de zéro à dix personnes en un an, en assurant la transmission de connaissance et la continuité opérationnelle

Client

Orange est l'entreprise de télécommunications leader ou seconde dans la plupart des pays européens ainsi qu'en Afrique, avec un total de 266 millions de clients.

J'ai travaillé pour le service B2B données d'Orange France pendant deux année:

Enjeux

En 2018, les données B2B d'Orange étaient réparties dans de nombreuses applications. Cela rendait le croisement des données long, complexe et difficile à standardiser. L'architecture et les outils BI existants ne permettaient pas non plus le stockage et l'analyse de données trop volumineuses et moins structurées.

À sa création, j'ai rejoint une équipe chargée de construire une plateforme Big Data Hadoop pour permettre l'accès à toutes les données B2B françaises en un seul endroit, de manière simple, et avec des outils modernes permettant de les traiter et analyser.

Process

Je suis arrivé au tout début du projet et j'ai participé à toutes les étapes, depuis la définition de l'architecture d'une plateforme Hadoop, à la construction d'un framework, à la réalisation de chaque module nécessaire et à l'expansion de l'équipe.

Voici les étapes auxquelles j'ai participé :

1.

Définition d’une architecture

Définition des normes de développement, des processus globaux, de l'organisation des fichiers, des nomenclatures, ...

2.

Montée en compétence

Apprendre à utiliser les différents outils Big Data nécessaires (Spark, Hive, Nifi, Sqoop, Oozie, Hue, Ambari, ...), et partager les meilleures pratiques.

3.

Construction d’un framework

Construire un framework Shell Bash pour permettre une utilisation facile de tous les outils nécessaires.

4.

Collecte des données

Collecter automatiquement des données de multiples sources avec Sqoop et Nifi.

5.

Ingestion des données

Ensuring the quality of the collected data and storing it in Operational Data Stores (ODS) with Hive (SQL-like).

6.

Transformation des données

Croiser différentes sources et construire les KPI souhaités selon les règles définies avec les équipes métier avec Hive ou Spark (Scala).a

7.

Exposition des données

Permettre à chaque application ou utilisateur d'accéder uniquement aux données dont il a besoin avec Hive ou Spark.

8.

Visualisation des données

Visualiser les données avec des outils comme Qlik Sense ou Plotly.

9.

Définir les étapes de déploiement

Pour chaque module, coder et documenter les étapes de déploiement pour l'installation ou la mise à jour en production.

10.

Automatiser

Pour chaque tâche devenant répétitive dans les étapes précédentes, coder un moyen automatisé de l'effectuer.

11.

Documenter et Transférer les Connaissances

Pour chaque module, documenter suffisamment pour qu'un nouvel arrivant puisse comprendre son fonctionnement seul. Veiller à ce que chacun sache comment tout fonctionne afin que l'équipe puisse continuer à travailler même en cas d'absence ou de démission.

Solution

Les données sont ingérées depuis Nifi (fichiers déposés par les différentes sources) ou Sqoop (connexion et requête directement dans une base de données relationnelle). Elles sont alors ingérées dans un espace de Staging. Pour toutes les étapes suivantes, les données sont stockées sur une plateforme Hadoop (HDFS) Hortonworks, gérée et supervisée avec les applications HUE et Ambari. Les données sont ensuite nettoyées pour être stockées dans des Operational Data Stores (transformations avec Hive-QL). Les données sont ensuite croisées et transformées selon les besoins d’analyse ou d'industrialisation de différents projets en utilisant Hive ou Spark. Les traitements automatisés sont ordonnancés automatiquement à l’aide de Oozie. Chaque projet a ensuite ses propres tables spécifiques stockant les données nécessaires à son fonctionnement, avec les droits d’accès correctement paramétrés pour que chacun n’accède qu’aux données le concernant. Ces tables sont la source alimentant les data visualisation filtrables et explorables simplement avec Qlik Sense.

Résultats

Un an plus tard, plus de dix personnes avaient rejoint l'équipe. Nous avions rassemblé les données de nombreuses sources, transformions et exposions les données pour deux produits data majeurs, de manière automatisée et industrielle.

Le premier produit permettait aux responsables des centres d'appels de piloter et suivre de manière détaillée l’activité de leur service

Le second permettait aux équipes expérience client et marketing d’explorer et mieux comprendre l'activité des clients sur divers supports numériques d’Orange (App mobile, sites, ..) et d’identifier des leviers pour améliorer leur expérience..

Enfin, de nouvelles données volumineuses et moins structurées étaient rendues disponibles pour une utilisation future, simple et centralisée. De plus, la plateforme permettrait de développer facilement de futurs projets de Machine Learning.

Méthodes et outils :

Méthodologie Agile, Knowledge Management

SQL, Scala, Bash Shell, Git

Hadoop, Spark, Hive, Nifi, Sqoop, Oozie, Hue, Ambari

Vous souhaitez échanger sur vos problématiques ou collaborer ?

>