BI : l’analyse de données passera par le collaboratif


Temps de lecture : 3 minutes
Share Button
ORSYS - BI
BI : l’analyse de données passera par le collaboratif

L’industrialisation du big data et du machine learning s’impose à tous. Elle renouvelle les intervenants de la business intelligence (BI) classique et leur rôle avec comme effet une génération de zones de conflit entre différents acteurs aux priorités différentes. Pour réussir, elle nécessite un renforcement important des processus collaboratifs tout au long du cycle de vie de la donnée.

Le big data, fusionné avec la BI classique, a renouvelé les acteurs du monde analytique ainsi que les tâches de ceux qui y participaient déjà. Les data scientists envahissent l’entreprise avec des niveaux différents, low code ou non. Les nouvelles infrastructures ou le cloud hybrid accentuent le rôle des IT systèmes et réseaux. Le RGPD réveille la sécurité. Le nouveau profil « geek » des data engineers, manipulant d’autres langages que le SQL, perturbe les circuits existants de la transformation de données. Les métiers sont beaucoup plus impliqués avec la data science qu’avec le datamining d’autrefois. Tous veulent contribuer à la réactivité, chacun à son niveau.

Des risques ?

Les risques : un brouhaha incessant qui dégénère en confusion et retard, et des zones de conflit ou d’incompréhension. Pendant l’ère des POC, chacun travaillait dans son coin. Depuis, la phase d’industrialisation des modèles a révélé des tensions apparues avec la mobilisation de tous. Les objectifs des uns ne sont pas forcément ceux des autres. Tous ces acteurs nécessitent de les coordonner pour ne pas reperdre en qualité et en productivité. L’autre enjeu est aussi l’acculturation digitale de l’entreprise, nécessaire pour que les algorithmes statistiques soient acceptés.

Nouvel eldorado ?

ORSYS - BI

La maturité de ce nouvel eldorado analytique sans limite renforce les besoins collaboratifs entre des mondes éloignés auparavant. Les deux grands enjeux du moment que sont la gouvernance des données et l’accès libre et rapide à des données multiples non redondées, accentuent la dose de collaboratif à mettre en œuvre. Cette coopération est à jouer sans complexe, sans crainte de se tromper. Les entreprises qui font la différence sont celles qui savent abandonner rapidement des modèles et qui ont un circuit court de mise en production.

Animons la communauté

Toutes les personnes qui participent à l’analytique constituent une communauté qui s’agrandit au fur et à mesure de la diffusion des projets. Son animation permet  d’acquérir une culture commune en termes d’efficacité : des usages, des algorithmes et de la réactivité. Il existe plusieurs moyens pour le faire, dont deux en particulier.

Un premier moyen, testé de plus en plus dans les entreprises, est de créer une collaboration active à travers le développement continu. On parle de DevOps, de SecOps, de DataOps. En synthèse, une sorte d’union de l’exploratoire qui va du métier jusqu’à l’exploitation. Elle consiste à mettre tous les acteurs autour de la table mais ne marche que si tout le monde joue le jeu et si la culture managériale de l’entreprise s’y prête.

Sur le fond, les bases sont semblables à la volonté de réunir la partie développement et opérationnelle d’un projet, appliqué au cycle de vie complet de la donnée. Au passage, ne pas oublier les métiers qui ont leur rôle à jouer dans les boucles itératives de l’exploratoire et dans la qualification du modèle retenu. L’objectif est de faire du propre en réduisant les temps de développement sous la pression du fameux time to market.

Et créons du lien

L’autre façon est de mettre en œuvre une sorte de Wikipédia interne de l’analytique dont la base de départ est le catalogue des données. Il pourra déjà comporter des cartographies d’usages dont raffole le RGPD, des cartographies des liens données-structures et des visualisations du « lineage » des traitements. Viendront s’ajouter ensuite des échanges d’expérience, des trucs et astuces, des normes et méthodes et, pourquoi pas, son lot d’anecdotes toujours utiles pour créer du lien.

Avec l’industrialisation du big data et des modèles statistiques, le terme de projet pluridisciplinaire n’a jamais eu autant d’écho !


Lire/relire : « Quand la pollution s’invite dans les données » et « Construire la Data Factory du futur »

 

Pour se former :

Pascal MUCKENHIRN

Expert de la business intelligence, consultant en systèmes d’information depuis plus de vingt ans, spécialiste des migrations de SI Décisionnel (SID), il aide aujourd’hui les entreprises à intégrer le big data dans le SID pour profiter des opportunités tout en maîtrisant les coûts.

Share Button

Laissez un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *