Expertises

Les projets de données sont des projets à part entière.

Parce qu'ils proposent à la fois un regard différent des problématiques exposées, une exécution plus réactive des plans d’actions et qu'ils sont complémentaires des outils méthodologiques classiques des cabinets de conseil, les projets de données sont abordés comme un outil à part entière des missions auprès de nos clients. Or, pour les mener à bien et en tirer les bénéfices attendus, impossible de faire l'impasse sur une méthodologie puissante, notamment en terme de compétences et de solutions logicielles...


Projet de données : Whatisit ? 

« Lorsque vous pouvez mesurer ce dont vous parlez, et l'exprimer en chiffres, vous savez quelque chose à son sujet ; mais quand vous ne pouvez pas le mesurer, quand vous ne pouvez pas l’exprimer en chiffres, alors votre connaissance est mince et insuffisante ; elle n’est que le début de votre réflexion et vous aurez à peine progressé vers l'étape suivante qu’est la Science.» 

La citation du célèbre physicien Lord Kelvin (1824-1907) connu pour ses travaux en thermodynamique, est souvent reprise quand il s'agit d'illustrer la philosophie des projets de données. Elle sonne comme le plaidoyer avant l’heure de la transformation de la prise de décisions basée sur l’expérience et l’intuition en une prise de décisions issue d’éléments mesurables et objectifs (« data informed decisions »).

Les prises de décisions relèvent autant du domaine commercial – vision client 360°, prévention de l’attrition client, relais de croissance, … -, que de celui de l’optimisation des process internes – respect de la conformité, optimisation de la chaîne de valeur, rationalisation des ressources informatiques, … -, ou bien encore de missions publiques - accompagnement de politiques de santé, de formation, etc.

À l’ère de l’économie digitale, de la mondialisation des échanges et d’une entropie croissante des écosystèmes, les prises de décisions au sein d'une organisation nécessitent une connaissance suffisante de l’événement déclencheur et une réponse opérationnelle dans un délai raisonnable... 

C'est tout l'objet des projets de données. Qu'il s'agit d'aborder comme un outil à part entière, avec sérieux et méthodologie...


Le datalab, l'axe majeur du projet de données

Au centre du projet de données : le datalab. Sa création est abordée comme un projet à part entière de transformation et d'innovation, dans la mesure où elle challenge chez nos clients les méthodes de travail et les processus métiers de l'ensemble des directions impliquées. 

Sous la responsabilité de la fonction de Chief Data Officer (CDO) quand celle-ci existe dans l'organisation, le datalab est au contact de l'ensemble des métiers dans une relation collaborative. 

Au-delà du périmètre circonscrit et maîtrisé du pilotage de la performance (Business Intelligence) basé sur des indicateurs prédéfinis (KPI), le datalab a 2 grandes missions : mesurer les éléments conjoncturels des problématiques métier – ou cas d’usages - d’origine internes ou externes et anticiper la survenue d’événements.

Les ressources et compétences du datalab

Le datalab syndique des compétences pluridisciplinaires aussi bien en interne que venant de l'extérieur (cabinets de conseil MOA et MOE) favorisant ainsi l’ouverture à de nouvelles méthodes et technologies :

  • experts métiers issus des fonctions métiers de l’organisation, impliqués durablement ou ponctuellement en fonction des projets, localisés ou non dans le datalab ;
  • chefs de projets data maîtrisant les méthodes adaptées (agilité) ;
  • data scientists/analysts maîtrisant les méthodes et outils de la data science (modèles de données, modèles statistiques, plateformes d’analyse de données, etc.) ;
  • data architects maîtrisant les infrastructures (bases NoSQL, Hadoop, plateformes logicielles, etc.) ;
  • experts IT (bases de données relationnelles, NoSQL, infrastructures) assurant la compatibilité entre l’infrastructure des SI et la plateforme logicielle du datalab.

Afin d’assister ses clients dans la mise en place de datalabs et la réalisation des projets de donnée, Alenium Consultants s'appuie pour sa part sur différents profils de consultants fonctionnels et techniques issus de ses différents pôles métiers. 

Les méthodes agiles au sein du Datalab

L’agilité, issue de projets de développement logiciels de startups, s’installe progressivement dans des organisations initialement plus « rigides ». Ce changement de paradigme implique la transformation progressive des structures internes et SI des organisations.

L’agilité est l’axe essentiel du datalab. Afin assurer une adaptabilité continue dans un environnement instable et en évolution constante, elle doit ainsi permettre la mise en œuvre des projets de données au travers :

  • de méthodes de travail collaboratives (ex : SCRUM) favorisant la synergie d’intelligences personnelles complémentaires en une intelligence collective (runs, conduite d’ateliers, management visuel, ...) ;
  • d’une démarche d’amélioration continue, itérative et réévaluée régulièrement ;
  • de technologies innovantes telles que les Data Management Platforms (DMP) et infrastructures dédiées.

La structure d’un projet de données



Le projet de données intègre les concepts de l'agilité dans son exécution. Les phases principales (au nombre de 6 ) sont les suivantes :

  1. Le cadrage du projet 
  2. La collecte et l'exploration des données
  3. La préparation des données : nettoyage, syndication et enrichissement
  4. L'analyse
  5. La prédiction par le machine learning
  6. Le déploiement et l’industrialisation

1. Le cadrage du projet 

Il définit les enjeux et la vision, arrête la roadmap, formalise l’architecture technique, l’organisation, les moyens et budget, les rôles et responsabilités ; et recense les métriques (performance, productivité, qualité, risque, ROI) du projet.

Cette étape initiale est essentielle à la mise en place d’une vision partagée par tous les acteurs, autant sur les attentes et livrables que sur les moyens mis en œuvre dans la démarche exploratoire.

2. La collecte et l'exploration des données 

La phase de collecte comprend plusieurs volets :

  • l’inventaire des données susceptibles de décrire le cas d’usage : données internes à l’organisation, données publiques (open data), données des réseaux sociaux, données payantes (Factiva, Dialog Datastar, …) ;
  • la qualification des données en fonction de leur pertinence, leur qualité, leur contrainte légale (ex : données RH) ;
  • l’évaluation de la validité statistique des populations de données (volume, représentativité, biais identifiés).

L’exploration a pour objectif :

  • de mieux comprendre la nature, la qualité et les interactions entre les données collectées ;
  • d’identifier les principaux travaux de la phase de préparation des données.

3. La préparation des données : nettoyage, syndication et enrichissement

En fonction de leurs origines, la non-qualité ou la non-représentativité des données nécessite des actions correctives. Les données d’origine diverses sont ensuite syndiquées grâce à des données communes existantes ou créées par rapprochement. 

Dans un deuxième temps, elles sont enrichies par génération de données secondaires significatives (ex : géolocalisation d’une adresse IP) et mise en perspective dans le temps (ex : ventilation hebdomadaire du CA sur les 12 derniers mois).

4. L'analyse

Objectif : décrire le cas d’usage par la mise en exergue d’éléments de décision par croisement des données et restitutions issues de la datavisualisation (géolocalisation, radars, réseaux, heatmaps, tableaux, …).

5. La prédiction par le machine learning

La recherche de corrélations entre les caractéristiques du cas d’usage au moyen de modèles statistiques appliqués à une sous-population représentative et homogène de données permet d’anticiper les événements futurs (ex : perte de client, défaut de paiement, baisse d’indicateurs qualité, etc.) par projection des modèles sur l’exhaustivité des données. 

Les livrables produits sont couramment des sous populations (listes de clients, listes de fournisseurs, etc.) définies par clusterisation et qui seront utilisées dans la réponse opérationnelle des métiers (ex : campagnes de mass mailing, liste de véhicules à forte probabilité de panne), mais aussi des analyses.

6. Le déploiement et l’industrialisation

Les étapes précédentes peuvent être réitérées sur plusieurs cycles afin d’affiner les analyses et les prédictions.

Une fois le niveau de qualité considéré comme suffisant, les valeurs des métriques projet acceptables, les livrables de la phase d’analyse et de prédiction sont déployés auprès des directions métiers concernées.

Enfin, si les résultats sont susceptibles d’être intégrés dans un processus standard de veille ou de Business Intelligence, alors le déploiement est industrialisé en tant que process métier.

Les outils 

Les différentes phases d’un projet de données sont prises en charge par des ateliers logiciels de Data Science : les Data Management Platforms (DMP) – ou Data Analytics Platforms (DAP).

Les DMP/DAP répondent aux contraintes des projets de données :

  • accès à des sources de données variées grâce à des connecteurs standards ou spécifiques ;
  • manipulation et exploration des données grâce à des fonctionnalités évoluées et intégrées en standard ;
  • visualisations adaptées aux éléments de compréhension à mettre en avant ;
  • utilisation de modèles statistiques via un moteur de machine learning ;
  • une architecture logicielle compatible avec les infrastructures big data et frameworks principaux afin de permettre l’industrialisation du déploiement des analyses, jeux de données et traitements.

Dans le cadre des projets de données dont Alenium Consultants a la charge, nous collaborons avec deux éditeurs reconnus du marché de la data science : Oracle (Oracle Big Data Discovery) et Dataiku (Data Science Studio)

Le datalab Alenium Consultants

Conscient de la richesse des données présentes chez ses clients et des enjeux que leur utilisation représente pour faire face à l’évolution rapide du marché, Alenium Consultants a décidé d’intégrer dans ses 5 grands domaines d’intervention la démarche des projets de données.

Pour ce faire, le cabinet s’appuie sur une équipe de data scientists et data analysts issus des pôles métiers (Public, Transport, Banque, Assurance, Transformation IT). Leur double expertise métier/données couplée à la maîtrise méthodologique permet de mieux appréhender les cas d’usages de leurs clients et l’ensemble des étapes des projets de données.

Nous sommes ainsi en mesure d’apporter à nos clients un éclairage complémentaire par la donnée sur les problématiques qui nous sont soumises, aussi bien dans le cadre d’études ponctuelles que de missions à plus long terme...



ALLONS PLUS LOIN ENSEMBLE !

> Vous souhaitez en savoir plus sur le conseil en management et innovation ? Venez rendre visite à nos consultants au sein de nos bureaux à Paris ou contactez-nous via notre page Contact.

> Notre cabinet de consulting recrute ! Rejoignez Alenium Consultants dès maintenant : consultez nos offres d’emploi pour un poste de consultant junior ou senior et embrassez une carrière de consultant au sein de notre équipe d’experts.