Expertises

Big data : opportunités et pragmatisme

Depuis l’arrivée du concept de Big Data au début des années 2000, l’évangélisation a été menée tambour battant par les acteurs du secteur (éditeurs de logiciels, constructeurs de matériel informatiques, SSII, cabinets de conseil). Le discours tenu auprès des décideurs sur l’approche du Big Data à travers des problématiques métier, s’il paraît prometteur, n’efface pas pour autant les doutes de ces derniers sur l’opportunité d’initier un projet Big Data...

Les 5 "V" caractéristiques du Big Data

Le Big Data serait-il la révolution du début du XXIème siècle, une évolution de principes et de technologies existants au service de nouvelles démarches exploratoires, une étape obligée pour se maintenir dans un écosystème de plus en plus versatile ? C'est ce que nous allons essayer de décrypter au cours de cet article...

Le Big Data est couramment décrit par le trio Volume – Variété – Vélocité, auxquels sont associées la Variété et la Visualisation. La génération de valeur est la résultante de la maîtrise de ces différentes caractéristiques.

1. La maîtrise du Volume de données, dont la croissance annuelle mondiale est communément estimée à 40%, a été rendue possible grâce à :

- l’augmentation des capacités matérielles des ordinateurs (processeurs, mémoire, etc.) pour un coût financier décroissant et maîtrisé ;
- la généralisation du parallélisme dans le traitement des données ;
- l’avènement de nouvelles bases de données dites « NoSQL » alternatives aux bases de données relationnelles.

2. La Variété des données manipulées par le Big Data, qui se décline en fonction :

- de leur origine, endogène - issue du système d’information de l’organisation - ou exogène - issue de l’écosystème de l’organisation (réseaux sociaux, mails, forums, open data, logs, etc.) ;
- de leur typologie : données structurées ou non, de types divers (texte, audio, vidéo), contextualisées dans leur interprétation (temporalité, géolocalisation, etc.). Chaque typologie de données fera appel à des process de transformation et d’analyse spécifiques.

3. La Véracité des données est une problématique intrinsèque à la variété .

S’il est aisé de s’assurer de la qualité des données endogènes, les données exogènes relèvent pour partie de l’incertitude, voire de la fausseté. Aussi, est-il impératif de s’assurer des traitements de génération et de collecte des données exogènes afin de qualifier leur degré d’incertitude, de discriminer les moins pertinentes, et au final de diminuer le « bruit » des données exogènes.

4. La Vélocité recouvre deux cycles distincts et non corrélés de flux des données :

- Un cycle amont d’intégration de données dans l’environnement Big Data, impacté principalement par l’entropie de l’activité d’internet (réseaux sociaux, mails, etc.) et des objets connectés (des machines-outils, domotique, smartphones, etc.) ;
- Un cycle aval de production et de diffusion des analyses à destination des métiers, dont la fréquence doit être en phase avec les contraintes conjoncturelles de prises de décision (ex : détection de la fraude)

5. La Visualisation d’analyses quantitatives ou qualitatives complexes nécessite de nouvelles représentations dont le graphisme doit faciliter leur interprétation (heatmap, carte géographique, bulles, graphes circulaires, réseaux etc.)

Le Big Data, au-delà de la Business Intelligence

Bien que la gestion de gros volumes de données soit une réalité depuis une cinquantaine d’années dans le secteur de la grande distribution notamment, on peut considérer que le Big Data est l’évolution de la Business Intelligence (BI) :

- Variété et Variabilité : le périmètre fini des données endogènes de la BI s’étend aux données exogènes.
- Volume : l’augmentation des capacités de stockage des données permet la transition de la démarche de pilotage basée sur des données agrégées (KPI ou indicateurs de performance) vers la démarche exploratoire exploitant les données de granularité fine ;
- Visualisation : les représentations quantitatives standard de la BI sont enrichies de graphismes représentant une information de nature qualitative plus complexe (graphes, réseaux, etc.)

Les principaux Business Cases adressés par le Big Data

Banque

  • Conformité et gestion du risque (objectif : améliorer la qualité des fonds propres en intégrant les éléments conjoncturels (lois, mesures fiscales, etc.) et répondre aux exigences Bâle III)
  • Détection de la fraude
  • Simulation de comportements clients

Assurance

  • Actuariat (objectif : avoir une vision plus précise des provisions en intégrant les éléments conjoncturels (lois, mesures fiscales, etc.) et répondre aux exigences Solvency II)
  • Détection de la fraude
  • Analyse et personnalisation des offres

Industrie

  • Stratégie de maintenance /analyse prédictive (objectif : assurer au client une forte disponibilité de temps machine en optimisant les interventions de maintenance et en limitant les impacts sur la production)
  • Optimisation des flux / production
  • Intelligence économique

Secteur Public

  • Grands projets transverses
  • Concept de smart city / ville intelligente (objectif : proposer au citoyen au travers des données de son environnement quotidien des services en adéquation avec son mode de vie)
  • Analyse d'aménagement du territoire
  • Open data

Transport

  • Performance temps réel
  • Gestion de crise (objectif : répondre en temps réel aux phénomènes d’engorgement des plateformes et moyens de transport en réorientant les flux de personnes)
  • Analyse socio-économique
  • Smart city & Open Data

Les impacts d’un projet Big Data

Mettre en place un projet Big Data implique trois contraintes nouvelles :

  1. Des données variées et véloces tant dans leur intégration que dans leur analyse
  2. Une agilité à produire et répondre aux besoins métier
  3. Un environnement technologique spécifique (stockage, manipulation, hardware, logiciel…)

… dont l’influence sur les organisations est particulièrement sensible :

- Sur un plan culturel :

  • Innovation et goût de l’inconnu
  • Projets multi disciplinaires impliquant experts métier et techniques
  • Espérance statistique de ROI

- Sur un plan organisationnel :

  • Gestion transverse des données internes et externes
  • Projets agiles à cycles courts et itératifs
  • Initiation du projet par le prototype

La structure du projet Big Data

La nature innovante et exploratoire du projet Big Data implique un mode projet agile initié par une phase de prototypage. La démarche itérative est caractéristique de ce type de projet dont la mesure principale d’efficacité relève de l’espérance statistique de ROI (retour sur investissement), contrairement à un projet de Business Intelligence (ROI simple).


L'approche et les compétences d'Alenium Consultants sur les projets Big Data

Le cabinet de conseil en stratégie Alenium Consultants accompagne ses clients Big Data dans le cadre du projet Big Data lui-même, mais aussi sur les problématiques connexes pour lesquelles ses compétences sont reconnues :

  • Accompagnement du changement
  • Mise en place de cellules innovation
  • Gouvernance transverse des données
  • Problématiques de confidentialité et de vie privée…

Allons plus loin ensemble !

> Vous souhaitez en savoir plus sur leconseil en management et stratégie ? Venez nous rendre visite au sein de nos bureaux à Paris ou contactez-nous via notre page Contact.

> Notre cabinet de conseil en management recrute ! Rejoignez Alenium Consultants dès maintenant : consultez nos offres d’emploi pour des postes de consultants junior ou senior et embrassez une carrière de consultant au sein de notre équipe d’experts.