Analytique du Big Data : les 5 levier de l’adoption

La vérité, c’est que la plupart des projets de ce type requièrent un délai aussi élevé que 18-24 mois entre leur conception et la production d’une réelle perspective commerciale. Adopter une approche pragmatique et avérée pour ce type de projet révise les attentes à la baisse mais accélère considérablement (par deux, voire plus) le délai de livraison de la solution et par conséquent de la valeur pour l’entreprise.

 

L’accélération de la valeur commence par une évaluation des moteurs commerciaux, dans l’optique d’identifier les études de cas les plus judicieuses. Quels sont les problèmes à résoudre ? Les résultats attendus ? Les détenteurs du projet doivent poser ces questions importantes et y répondre. Une bonne règle empirique ici consiste à évaluer dans quel domaine la valeur la plus élevée peut être produite rapidement, puis à mettre d’abord en œuvre ces zones de forte valeur.

« À l’impossible, nul n’est tenu », aussi vaut-il mieux identifier une ou deux zones problématiques sur lesquelles se concentrer, piloter ces projets jusqu’à leur achèvement, concrétiser la valeur, et en cours de route acquérir expérience et expertise afin que ces enseignements puissent être reproduits dans le prochain projet, et ainsi de suite, en mode accéléré. Il faut donc déterminer comment mesurer la valeur commerciale des études de cas afin de permettre cette hiérarchisation.

Des méthodes cohérentes et avérées sont nécessaires pour produire des résultats opportuns et cohérents. C’est le processus d’identification de la data et des informations nécessaires pour relever les défis et les questions commerciaux qui favorise la perspective commerciale et sa monétisation.

Data > Informations > Perspectives > Monétisation

Les utilisateurs doivent comprendre la capacité de la solution d’analytique et les apports de data nécessaires pour la concrétiser. Est-elle en mesure de résoudre les problèmes d’activité ? Disposez-vous des feeds de data requis ? Ceux-ci contiennent-ils ce dont vous avez besoin et sont-ils opportuns ? Quels sont les rapports dont vous avez besoin ? Disposez-vous des ressources humaines nécessaires au projet ?

Pour faciliter l’adoption de la solution, garantir une adhésion rapide des différentes organisations et concrétiser une valeur quantifiable, on recommande une approche en cinq parties qui intègre Formation, Quickstart, Bonnes pratiques, Expert résident et Automatisation.

C’est une évidence mais les utilisateurs doivent être formés à l’utilisation de la solution d’analytique du Big data retenue. L’approche de formation peut toutefois être modifiée pour accélérer le projet. Une approche boot camp qui envoie les utilisateurs face à leur écran pour utiliser le produit dans un délai court (sessions de formations de 2-4 heures) facilite le processus d’apprentissage. Des modules de formation suivis sont ajoutés pour un apprentissage et une expertise complémentaires.

  • QuickStart

Pour mettre en place un projet d’analytique du Big data, mieux vaut cibler un éventail restreint d’objectifs et de livrables. Les responsables du projet doivent définir des indicateurs clés de la performance (KPI) et/ou des indicateurs clés de la qualité (KQI) en guise de mesures de la valeur commerciale, ainsi que quelques responsables pour concrétiser les projets spécifiques.

  • Bonnes pratiques

Nombre de bonnes pratiques existent pour mettre en œuvre les projets d’analytique du Big data mais les deux les plus importantes sont l’optimisation de la qualité des données et l’innovation relative aux processus.

La data est le fondement de n’importe quel projet d’analytique. Sans données intelligentes, pas d’analytique pertinente. L’optimisation de la qualité des données est ici primordiale. Ce qui signifie respecter un processus pour évaluer, analyser et optimiser la qualité des données, leur exactitude, leur disponibilité et leur intégrité.

La refonte du processus commence par une observation des individus, des processus et des systèmes afin de comprendre leur interdépendance et optimiser ces relations.

Pour les individus, on doit définir qui sont les utilisateurs et bénéficiaires du système, comment ils vont utiliser le système et la data, et dans quelle optique ? Les entreprises peuvent se doter de collaborateurs solides, et de processus efficaces, mais sans un système tout aussi solide, le processus ne suivra pas.

Pour les processus, on doit définir le mode de gestion et de diffusion de la data. Comment le système et les changements sont opérés afin d’autoriser une prise de décision en continu. Les entreprises dotées d’un système et de processus solides mais à qui des collaborateurs efficaces font défaut vont souffrir d’actifs sous-utilisés et de retours sur investissement non réalisés.

Pour le système, on doit définir la data du système, son degré d’exactitude et les décisions qu’il est capable de favoriser par ses fonctions. Les entreprises dotées d’un système et de collaborateurs solides mais dépourvues de processus efficaces vont essuyer des interventions manuelles permanentes, un délai de réponse lent et des incohérences.

  • Expert résident

Pour accélérer les projets d’analytique du Big data, mieux vaut envisager de faire appel à des ressources de services professionnels dotés d’une connaissance experte de la solution ainsi que d’un réseau et d’une expertise en analytique. L’expert résident accélère non seulement la première livraison du projet mais peut aussi former l’équipe aux bonnes pratiques, qui peuvent ensuite être réutilisées pour compléter l’apprentissage et les expériences acquises, et ainsi contribuer à accélérer la mise en œuvre du prochain projet.

  • Automatisation

L’automatisation doit démarrer par des processus bien documentés : cela rend le processus réitérable et extensible. Des audits de continuité sont effectués pour garantir la conformité. Évaluer la préparation des processus pour les domaines d’activité sensibles permet de mettre en œuvre les résultats d’audit et d’améliorer la préparation aux catastrophes.

Privilégier ces approches et ces bonnes pratiques contribue à définir des attentes plus réalistes pour les projets d’analytique du Big data et à accélérer la création de valeur par des perspectives commerciales et une monétisation. Avoir accès à des données enrichies, en temps réel et intelligentes qui autorisent l’extensibilité est essentiel pour fournir une analytique précieuse. Avec la concurrence accrue et l’accélération de l’activité, il n’a jamais été aussi urgent de concrétiser les perspectives commerciales.

Tribune rédigée par Daniel Crowe, directeur France et Europe du Sud de Netscout


ZDNet vous accompagne

Construire votre infrastructure Big Data : 4 composantes clés pour réussir

ZDNet