L’un des grands enjeux de ces cinq prochaines années pour les entreprises et pour toute organisation est de sécuriser et de valoriser leurs données métiers. Entre cloud public et cloud privé, une solution « Hybride Data Fabric » s’impose de plus en plus.
Enrichie désormais d’informations et de formats divers (texte, image, son, vidéo, photos, etc.), la donnée stockée s’est complexifiée. Des éléments complexes qui sont justement à l’origine de l’évolution du stockage de la donnée.
Les données stockées en interne sur des serveurs de fichiers dans les années 1980/1990 le sont aujourd’hui sous forme d’entrepôts de données dans les data centers, des clouds privés, publics, hybrides. Une dispersion du stockage qui fragilise les entreprises et les contraint à hiérarchiser leurs données sous forme de « data fabric » pour optimiser leurs coûts et valoriser leurs usages.
« Utiliser le cloud public comme outil de connexion massive et le cloud privé pour sanctuariser les données sensibles. »
Le grand enjeu d’aujourd’hui est plus que jamais de manager la croissance du volume de données et son exploitation. Et pour ce faire, une nécessité s’impose pour les entreprises : devenir « data driven ». Autrement dit, tirer les conséquences d’un constat désormais partagé : les données d’une entreprise permettent de gérer, mais surtout de transformer son métier.
Dès lors, comment valoriser vos propres données sans laisser d’autres entreprises le réaliser à votre place et prendre le risque qu’elles valorisent et monétisent votre savoir-faire plus vite que vous ? L’exemple, entre autres, des GAFAM a montré combien le risque était grand de se voir ainsi dépossédé de sa data et de son métier.
Reprendre la main
Pour mener à bien ce travail de réappropriation de ses propres données, il est essentiel de comprendre comment circulent celles-ci au sein de ses process métiers. Cela implique de savoir d’où elles viennent, comment les « nettoyer », les enrichir et les valoriser pour ensuite les réinjecter dans ses applications métiers. Cette mise à plat de tout le processus de gestion de la donnée, c’est le « data pipeline ».
Pour visualiser la démarche, prenons l’exemple d’une entreprise qui décide de se lancer dans la vente à distance. Pour que son application mobile d’e-commerce soit efficace, il va falloir d’abord consolider toutes les données de stock, d’achat des clients, de promotions… Un processus simple à réaliser aujourd’hui grâce aux data warehouses qui sont de parfaits entrepôts de données.
La seconde étape consistera à enrichir ces données par une segmentation en établissant des catégories et sous-catégories permettant au client de trier l’information plus facilement (habillement, cosmétique, électroménager). Ce travail permettra également de gérer plus finement l’historique du client.
Ce qui amène naturellement vers la troisième étape, celle de l’optimisation de la préconisation commerciale au client grâce à l’intelligence artificielle.
Imaginons que les données nous ont permis d’identifier que deux fois lors des trois dernières années, un client achète à l’époque de la Foire aux vins des équipements de ski pour son fils. L’entreprise a certainement tout intérêt à recommander les promotions d’équipements de ski, de la bonne taille, pour garçon.
Quand la concordance d’achat est exploitée à bon escient, elle peut générer une augmentation de 2 à 4 % du panier moyen.
Tout ce processus et le flux d’exploitation de la donnée « data pipeline » présentent aussi l’avantage de permettre une amélioration continue de ses services. Quand des retards de livraison ou des retours d’articles défectueux se multiplient, une analyse fine des données par un algorithme peut permettre de savoir si c’est parce que le colis est livré en bas de l’immeuble et non à l’intérieur ou si c’est lié à un produit ou prestataire spécifique.
Cloud : le meilleur des deux mondes
Mais pour garder la maîtrise de ses données et les valoriser pleinement, encore faut-il les stocker au bon endroit. Certains optent pour une solution interne via un cloud privé et des data centers propres. La sécurité de la donnée y est sans aucun doute assurée, mais ce modèle, statique et souvent en retard en termes de technologies, limite les possibilités de développement.
D’autres choisissent des plateformes « up-to-date » de prestataires qui hébergent les données via le cloud public. Le risque en termes de confidentialité et les coûts élevés inhérents aux flux entrants et sortants sont loin d’être négligeables (voire exponentiels).
Il existe une troisième voie : la solution hybride. Le principe consiste à utiliser le cloud public comme outil de mobilité (IoT/Edge) offrant une puissance de connexion et de scalabilité massive. Associé à un cloud privé, exploité en interne ou par un prestataire, cela permet de sanctuariser les données sensibles de l’entreprise liées à ses applications métiers. J’appelle cela une architecture « Hybrid Data Fabric ». Elle optimise le stockage, garantit la sécurité de vos données et devient le socle de votre data pipeline.
L’HDF (Hybrid Data Fabric) libère les énergies pour mieux comprendre et innover avec vos données.
20/01/2022