Dans un environnement de plus en plus ouvert, atomisé et virtualisé, le contrôle de la donnée devient un enjeu critique pour les différents acteurs de la chaîne de valeur immobilière. Objectif : passer d’un environnement subi de big data à une gestion maîtrisée de smart data.
Pas d’intelligence du bâtiment sans data. Les immeubles de demain seront capables de produire, brasser, stocker, importer des volumes considérables de données. Mais que faire de cette masse d’informations ? Comment la gérer ? Où l’entreposer ? Où la faire voyager ? Bref, où doit se situer l’intelligence du bâtiment ? Dans les objets ou les équipements connectés ? Dans les serveurs ? Dans le cloud ?
Les réponses à toutes ces questions seront bien sûr fonction de la configuration des sites (taille, mono ou multi-site), de leur niveau de technicité (déploiement d’applications IoT, densité et étendue des réseaux), de leur fonction (siège ou antenne, nature des activités abritées), ainsi que des jeux d’acteurs en place (écosystème de sous-traitance).
Toutefois, précise Julien Delbecchi, responsable Systèmes d’information de VINCI Facilities (VINCI Energies), « au-delà de la variété des situations, une stratégie d’entreposage de la donnée est sous-tendue par trois invariants : sécurité, performance, maîtrise des coûts. C’est ce triple objectif qui doit guider les choix a priori, et non la facilité logistique. »
Pas si simple ! Il faut en effet composer avec la prolifération de datacenters dans et à l’extérieur des bâtiments et, surtout, avec la démultiplication exponentielle des applications dans le cloud. Car plus le bâtiment est « smart », plus il accumule les liaisons nerveuses entre bases de données centrales, datacenters et applications en mode SaaS externalisés, et fonctions métier de l’entreprise (comptabilité, gestion de la paie, calendriers partagés, CRM).
« Shadow IT »…
Pire : cette sédimentation en cascade des connexions se fait bien souvent à l’insu de tout contrôle. C’est le fameux phénomène du « shadow IT », véritable angle-mort des systèmes d’information, qui pourrait dépasser les 30% des dépenses informatiques.
Si on estime qu’une entreprise s’appuie en général sur deux ou trois grandes infrastructures de cloud public (Amazon Web Services, Microsoft Azure, Google Cloud Platform), une étude menée en 2017 par le Club des experts de la sécurité de l’information et du numérique (Cesin) situe autour de 1 700 le nombre moyen d’applications SaaS utilisées par les entreprises.
« L’objectif est que les données du client demeurent chez le client, donc dans le bâtiment. »
Pour garantir de manière optimale la performance des bâtiments et pouvoir déclencher des interventions techniques ou de service adaptées aux besoins, le facility management doit non seulement pouvoir connecter ses propres applications de GTB (gestion technique du bâtiment) et de GMAO (gestion de la maintenance assistée par ordinateur) aux applications de ses clients exploitants et/ou occupants, mais être assuré d’avoir accès à la donnée la plus utile, celle qui recèle une réelle valeur informative et opératoire pour les différents scénarios d’intervention.
Dans cette nébuleuse multi-cloud, il s’agit donc de (re)prendre le contrôle de la donnée, de passer d’un environnement subi de big data à une gestion maîtrisée de smart data.
« L’objectif est que les données du client demeurent – tant que faire se peut – chez le client, donc dans le bâtiment. L’idée étant d’organiser et de structurer la data avant de déporter ce qui doit l’être vers des bases extérieures, en fonction de critères prédéfinis de criticité, d’utilité, d’urgence », explique Julien Delbecchi.
… et « edge computing »
La réponse pourrait bien se trouver dans l’edge computing, ou réseau distribué ouvert de micro data centers. Comment ça marche ? La donnée est envoyée directement sur un petit périphérique local qui va la stocker, l’animer et la restituer avant de l’envoyer vers le cloud ou vers un data center distant. « Nous sommes en train de mettre en place, en collaboration avec la startup SpinalCom, une architecture permettant, à partir d’objets génériques, de connecter les centres locaux de nos client et nos propres bases. Le but n’étant en aucun cas d’imposer un nouveau standard, mais de créer un langage commun pour déployer facilement, rapidement et à moindre coût nos solutions d’un bâtiment à un autre », illustre Julien Delbecchi.