Bâtiment intelligent : quel niveau de maîtrise pour les organisations ?

Dans le cadre de mes activités d’enseignement, je me suis intéressé il y a quelques années aux solutions domotiques. Après avoir étudié les différentes solutions sur le marché, j’ai commencé à avoir des réserves sur le niveau de maitrise général que peut avoir un particulier ou une entreprise sur son système domotique. En effet, ces systèmes sont complexes d’où mes interrogations sur la capacité des acteurs à en avoir la maitrise. Début 2014, la direction des études du CESI a initié un nouveau projet pour la dernière année de l’école d’ingénieur : faire réaliser aux étudiants la maquette virtuelle (modélisation 3D, système thermodynamique, etc.) d’un bâtiment géré informatiquement. C’est en suivant la rédaction de ce projet, et par la suite en accompagnant les étudiants dans sa réalisation, que ces interrogations sur la maitrise de ces systèmes me sont revenues. En effet, les solutions techniques actuelles sont souvent des assemblages de plusieurs logiciels et matériels provenant de différents éditeurs. Egalement, les moyens de communication de ces équipements reposent sur une multitude de technologies nouvelles et peu connues…

Comment sont conçus les systèmes de Gestion Technique du Bâtiment ?

Présentent-ils des risques de sécurité inhérents à leur constitution ?

Les entreprises qui souhaitent mettre en place une Gestion Technique du Bâtiment (l’équivalent de la domotique pour des bâtiments d’entreprise) le font souvent pour répondre au besoin de maitrise des dépenses énergétiques. Mais l’objectif du projet n’est pas toujours l’économie. Cela peut également être une rationalisation des coûts liés à l’entretien de la structure, l’externalisation de cette gestion ou encore les gains d’image qui sont liés à ces bâtiments innovants.

Pourquoi les entreprises cherchent-elles à déployer un système GTB ?

Quel retour sur investissement cherchent-elles à atteindre ?

Parallèlement au développement des nouvelles technologies informatiques, les solutions de domotique et de GTB sont de plus en plus matures, et permettraient dans une certaine mesure d’automatiser pleinement le fonctionnement du bâtiment, en utilisant des intelligences artificielles.

Se dirige-t-on vers des bâtiments pleinement autonomes ?

Quel sera alors la place de l’être humain ? Une machine peut-elle se substituer à lui ?

Ainsi, toute ma thèse sera organisée autour de la problématique suivante :

En termes de retour sur investissement et de gestion des risques de sécurité, quel est le niveau de maitrise des organisations face aux bâtiments intelligents ?

Mes hypothèses initiales me viennent de mes premières connaissances dans le domaine. En effet, il me semble très important de définir quel est l’objectif d’un projet de GTB, si on ne souhaite pas se retrouver avec un système complexe à gérer et qui ne remplirait pas ses fonctions. Les hypothèses suivantes vont donc guider la réalisation de l’état de l’art de cette thèse, et seront vérifiées à l’issue : La GTB ne doit pas être vue comme une solution parfaite aux problèmes de gestion du bâtiment. Bien qu’elle rationnalise une partie de cette gestion, il ne faut pas considérer que ce travail ne va plus impliquer les acteurs humains de l’organisation. De plus, le retour sur investissement doit être difficile à estimer, étant donné que les avantages de la GTB sont essentiellement fonctionnels. Egalement, si les objectifs de sécurité ne sont pas définis avec rigueur, la GTB pourrait entrainer un accroissement des risques technologiques sur le Système d’Information de l’entreprise. De plus, les systèmes évolués impliquant de l’intelligence artificielle sont aptes à rendre des services importants. Mais il subsiste un risque qu’ils ne soient pas en mesure de traiter des situations d’urgence sortant du cadre habituel.

Ce travail débutera pour commencer par un état de l’art du bâtiment intelligent, des solutions de domotique et de Gestion Technique du Bâtiment (GTB). J’étudierai ses aspects organisationnels, techniques, humains et économiques, ainsi que sur le plan de la sécurité. Ensuite, afin de suivre les travaux à la pointe de la Recherche & Développement dans ce domaine, je ferai également un approfondissement sur les systèmes émergents d’intelligence artificielle (qui se basent sur du machine learning), et qui se retrouvent au cœur des systèmes de GTB.

Mon benchmark en situation réelle aura pour but d’aller mesurer le delta entre les recommandations de la bibliographie et l’application opérationnelle sur le terrain. Je validerai ainsi la pertinence de mes hypothèses.

Sommaire:

  1. Chapitre I – Etat de l’art
    1. Le bâtiment intelligent
    2. Dimensions économiques, écologiques et sociales
    3. Dimension organisationnel de la GTB
    4. Dimension technique de la GTB
    5. Aspects de sécurité
    6. L’apprentissage automatique (machine learning)
  2. Chapitre II – Synthèse de l’état de l’art
  3. Chapitre III – Etude terrain
    1. Méthodologie
    2. Analyse des solutions techniques de GTB sur le marché
    3. Interviews
  4. Chapitre IV – Synthèse et Analyse
    1. Réponse aux hypothèses
    2. Recommandations
  5. Chapitre V – Conclusion et perspectives
  6. Bibliographie

Chapitre I – Etat de l’art

Le bâtiment intelligent

Historique de la domotique

La domotique est un terme qui désigne le fait de centraliser le contrôle des différents systèmes d’un bâtiment. Par exemple de gérer l’allumage et l’extinction des lumières par informatique plutôt qu’en utilisant les interrupteurs, de programmer l’extinction des volets roulants à la tombée de la nuit, ou encore de recevoir des alertes sur son téléphone en cas d’intrusion détectée par l’alarme.

Les premières inventions relatives à l’automatisation des fonctions de l’habitat sont très anciennes. Ainsi, les Carnets de Léonard de Vinci ont montré qu’il avait déjà conçu une lampe de table munie d’un variateur d’intensité. Il a également travaillé sur des portes s’ouvrant et se fermant automatiquement au moyen de contrepoids.

Concept né dans les années 1980, la domotique consiste à mettre en réseau, à coordonner et à automatiser le fonctionnement des équipements électriques d’une maison ou d’un bâtiment, afin de permettre des économies d’énergie, d’améliorer le confort et la sécurité dans le bâtiment.

Or, la généralisation de la domotique, qui avait été annoncée comme imminente et inévitable lors de son apparition dans les années 1980, n’a pas eu lieu. Ce demi-échec est en partie du à l’inertie propre aux changements dans les modes de vie. En effet, il existait à l’époque des réticences quand à l’intégration d’objects informatiques automatiques dans le quotidien. La faible durée de vie des composants électroniques a également levé la réticence des générations précédentes, qui avaient encore un rapport fort avec la durabilité.

Egalement les attentes des consommateurs étaient trop fortes, les techniques et technologies de l’époque n’ont pas pu les satisfaire. Le niveau de précision attendu des systèmes automatique est en effet extrémement elevé. Impensable qu’un composant puisse avoir des « bugs » si ce dernier est responsable des organes vitaux d’un bâtiment.

En outre, les bâtiments ont une durée de vie très longue. L’impulsion du changement dans ce domaine est nécessairement très lente. L’inertie du patrimoine immobilier français est forte, celui-ci n’étant renouvelé que d’environ 1% par an1.

Les premiers signes visibles de cette évolution vers un bâtiment intelligent apparaissent aujourd’hui, trente ans plus tard, pour plusieurs raisons. Déjà grâce à l’avancée technologique, mais également de la réglementation et des considérations écologiques.

Les premiers développements des technologies permettant la domotique sont apparus au milieu des années 1980. Les technologies de l’époque étaient suffisantes pour gérer l’ensemble des systèmes, mais les composants n’étaient pas du tout miniaturisés, et avaient un coût très élevé. Mais l’émergence de technologies de communication numériques (Minitel, RNIS) a permis un essor important. Les grands objectifs de la domotique ont émergé à cette époque : apporter du confort, de la sécurité, de la convivialité et de l’optimisation dans la consommation des ressources.

Les NTIC2 ont évolué pendant les années 1990 et ensuite, la maturité technologique a permis de réaliser des composants plus fiables, plus compacts, plus économes et plus intelligents. Ainsi, les technologies de transmission sans-fil (le Wifi est l’exemple le plus connu) permettent de déployer des équipements sans avoir à les câbler.

Les ordinateurs se sont miniaturisés, et surtout ils tiennent maintenant dans nos poches : les périphériques mobiles intelligents (smartphones et tablettes) sont capables de se connecter à n’importe quel réseau et d’exécuter des applications graphiques complexes. Les capteurs physiques se sont miniaturisés également : aujourd’hui les téléphones portables par exemple intègrent tous des accéléromètres, une boussole magnétique, un GPS, un capteur de luminosité, un micro haute-définition, etc.

waspmote_radiation_sensor_board-1000.png

Exemples de miniaturisations des composants électroniques

Les composants sont plus fiables et plus performants (par exemple les capteurs des caméras de surveillance) mais les programmes logiciels le sont également. La mise en veille est optimisée, le périphérique peut se déclencher uniquement suite à une situation voulue (par exemple les caméras n’enregistrent que quand un humain est présent à l’image).

Pour synthétiser, on peut observer que la domotique a très largement évolué depuis sa naissance dans les années 1980. Pour les entreprises, on va parler de Gestion Technique du Bâtiment ou GTB (la domotique à l’échelle d’un bâtiment d’entreprise). On peut également parler de Gestion Technique Centralisée ou GTC. Il y a quelques différences entre les deux mais dans le cadre de cette thèse, ces termes peuvent être vus comme des synonymes.

Ainsi, avant de continuer, faisons un point sur le vocabulaire employé :

termes.png

Eléments de vocabulaire dans l’univers des bâtiments intelligents

Pour les entreprises, la Gestion Technique Centralisée s’est développée dans les années 1990, principalement sur les systèmes industriels lourds (comme les centrales nucléaires, les barrages, les usines et les chaînes d’assemblage, etc.). Ainsi, les systèmes de production et du bâtiment sont tous interconnectés, permettant cette fameuse gestion centralisée.

Il est à noter également que c’est à cette époque que les algorithmes d’asservissement3 ont fait d’importants progrès, principalement dans l’aéronautique (pilotage automatique des avions par exemple) et l’industrie (robots des chaînes de montage, etc.). Ils se sont peu à peu déployés sur les systèmes de Gestion Technique du Bâtiment.

Dans les années 1980-1990, les systèmes de GTB se basaient sur des technologies très différentes, et souvent dites « propriétaires », c’est-à-dire définies uniquement par un industriel et compatible uniquement avec ses équipements. Il y avait peu de standard pour l’interconnexion des équipements, ainsi l’interopérabilité était beaucoup moins importante qu’aujourd’hui.

Les protocoles de communication de messagerie instantanée MSN® et Skype™ sont des exemples de protocoles propriétaires. La conséquence directe est de fausser la libre concurrence entre créateurs de logiciels utilisant ces protocoles. En effet, celui qui a créé le protocole devient la référence, et peut le modifier à sa guise. Les autres créateurs de logiciels qui utilisent cette technologie sont dépendants de ses spécifications mais n’ont aucun contrôle dessus. Elles doivent parfois deviner comment le standard fonctionne, souvent à partir de techniques de rétro-ingénierie.

Les années 2000 marquent une révolution pour les technologies informatiques, avec l’apparition de nombreux standards qui ont permis le développement d’applications inter-opérables. Les industriels ont formé des groupes de travaux (comme l’IEEE4 pour les transmissions sans-fil par exemple) pour s’entendre sur la conception des standards de télécommunication, et s’accorder également sur les formats de données d’échange.

Ces améliorations dans l’inter-opérabilité des systèmes électroniques et informatiques a bénéficié à la Gestion Centralisée du Bâtiment. En effet, la standardisation des échanges entre les équipements a permis la conception de systèmes tout-en-un plus homogènes et performants. Ces évolutions dans le domaine de l’informatique ont d’ailleurs donné un néologisme : l’immotique (concaténation des mots « immeuble » et « domotique »).

L’immotique d’aujourd’hui

Les bâtiments connectés d’aujourd'hui sont appelés Smart Building, ou bâtiment intelligents. Pour les habitations individuelles, on parle de Smart Home. Désormais le bâtiment est en capacité de gérer lui-même son fonctionnement, et dispose de nombreuses interfaces avec les périphériques « smart » (smartphones, tablettes, smartwatch, etc). Les fonctionnalités ne sont pas nouvelles, mais il s’agit d’une évolution certaine en termes de qualité d’intégration de l’ensemble des composants et sur les interfaces avec l’homme disponibles sur l’ensemble des périphériques mobiles.

Pour réaliser ces actions très avancées, on commence par centraliser l’ensemble des données provenant des différents sous-systèmes du bâtiment. Le schéma ci-après représente l’ensemble de ces sous-systèmes :

bdd_unique.png

Sous-systèmes des systèmes de Smart Building.

Le fait de centraliser l’ensemble des informations dans une base de données unique est nécessaire pour réaliser des applications portant sur l’ensemble de la gestion technique du bâtiment. Les différents sous-systèmes ne sont pas obligatoires, leur intégration peut même se faire au fur et à mesure des besoins de la société. On parle donc de Gestion Technique Centralisée (GTC), quand un système va agréger tous les organes de communication de l’entreprise, ainsi que tous les composants du bâtiment (Gestion Technique du Bâtiment, ou GTB).

Pour concevoir un système de GTB, es intégrateurs de ces systèmes intelligents commencent par examiner les missions de l’organisation, les modes de vie des résidents, et l'environnement du système. Ils ont à leur disposition plusieurs sous-systèmes spécialisés et interconnectables, comme évoqué plus haut. Ils viennent donc sélectionner dans ces sous-systèmes ceux dont ils ont besoin pour assurer les fonctionnalités voulues par l’organisation.

L’assemblage bien coordonné de ces différents composants permet de réaliser un bâtiment dimensionné aux habitudes de ses usagers en termes de fonctionnalités. On peut ainsi obtenir un bâtiment qui remplit parfaitement sa mission : minimiser les coûts de l'énergie, simplifier la gestion du bâtiment, sécuriser l’accès physique, etc.

D’un point de vue fonctionnel il est important de comprendre que chaque sous-système va apporter des possibilités, et qu’ils peuvent être intégrés au fur et à mesure des besoins. C’est une logique de brique empilables, qui peuvent être déployées les unes sur les autres.

Fonctionnalités

Les systèmes de la domotique et de la GTB apportent de nombreuses fonctionnalités. La liste suivante est non exhaustive, mais elle permet de se figurer des capacités de ces systèmes

  • Gestion de l’éclairage
    Contrôle les luminaires, ajuste l’éclairage à la luminosité extérieure, extinction automatique.
  • Régulation de la température
    Ajuste la température des espaces et optimise la consommation en fonction des conditions climatiques ou de l’enveloppe thermique du bâtiment.
  • Optimisation des économies d’énergie
    Détection des consommations indésirables, mise en veille des appareils électriques.
  • Gestion de la production d’énergie
    Quand l’habitat ou le bâtiment dispose de sources d’énergie (souvent des panneaux solaires), le système gère l’ensemble de la production.
  • Stockage de l’énergie
    Si l’entreprise dispose d’un parc automobile électrique, les batteries peuvent stocker une partie de la production.
  • Occupation des salles
    Réservations et occupations des salles sont affichées sur des écrans ou une page web.
  • Gestion des flux vidéo
    De leurs appareils portables (ordinateurs, smartphones, etc.) les résidents peuvent envoyer un flux vidéo sur un écran ou un vidéoprojecteur.
  • Détection des surconsommations, des fuites, des gaspillages
    L’affichage de graphiques complets sur la consommation permet de détecter les sources indésirables, et d’y apporter un traitement (programmation d’une extinction automatique, sensibilisation des consommateurs, détection du matériel défectueux, etc.).
  • Contrôle des ouvertures
    Portes glissantes, volets et stores peuvent être ouverts et fermés quand un résident le souhaite, ou de manière programmée (une fois la nuit tombée par exemple).
  • Ergonomie simplifiée
    Par exemple éteindre une dizaine d’appareils en un seul clic, ou bien permettre de configurer des profils personnalisés (lumière tamisée).
  • Contrôle des accès
    Sécurisation des accès (badgeuses, contrôle biométrique), ouverture/fermeture à distance.
  • Données en push
    Permettre à l’organisation de pousser les informations contenues dans l’Intranet aux résidents (l’ascenseur est en panne, la réunion a été déplacée dans une autre salle, etc.)

Synthèse

La domotique est un domaine technique qui vise à apporter de l’intelligence à un bâtiment, grâce à des composants informatiques et électroniques. C’est un croisement de plusieurs domaines d’ingénierie : les télécommunications, l’informatique, l’électronique, la mécanique, etc.

Nous venons de voir que la domotique est un domaine apparu dans les années 1980, et que son évolution a suivi celle des technologies de l’information et des télécommunications. Depuis, les technologies actuelles se sont énormément miniaturisées, la consommation électrique des composants a beaucoup baissé, les batteries ont fait des progrès énormes, et les technologies de communication à grande distance existent et sont utilisables à côuts réduits.

Ainsi, depuis les années 2000, on parle de « bâtiments intelligents » ou de « Smart Building », et un noélogisme a même fait son apparition pour désigner cette nouvelle ère : l’immotique.

Tous les systèmes du bâtiment sont concernés : le chauffage, l’éclairage, la gestion de la production photovoltaique, les alarmes et la vidéo surveillance, etc. Pour les bâtiments d’entreprise ou collectifs, on parle indépendament de la GTB pour la Gestion Technique du Bâtiment, ou de GTC pour la Gestion Technique Centralisée.

Ces technologies sont matures, nous y reviendrons dans le Benchmark à partir d’une étude des solutions actuelles. Leur haut degré d’inter-opérabilité facilite le travail des intégrateurs qui peuvent ainsi proposer des solutions clé en main et évolutives à leurs clients.

Nous allons maintenant étudier la maturité des marchés économiques et les enjeux financiers qui sont liés à ces technologies.

Dimensions économiques, écologiques et sociales

Aspects sociaux

En 2013, un rapport nommé « La Silver Économie, une opportunité de croissance pour la France » publié par le Commissariat Général à la Stratégie et à la Prospective (CGSP), analyse les impacts économiques et les opportunités commerciales pour la France dans le domaine de la domotique.

Il y est question d’enjeux sociaux. En effet, avec un vieillissement observé de la population dans les pays fortement développés5 6 « la demande d’aménagement du domicile, de produits et de services liés à l’autonomie devrait doubler en l’espace d’une vingtaine d’années. », prévoient les spécialistes dans ce rapport. Ces populations ont un degré de dépendance plus forte, et le coût de la main d’œuvre pour les aider dans leur vie quotidienne a également tendance à augmenter7. On imagine alors la nécessité de concevoir des systèmes permettant de prendre en charge une partie de cette problématique.

Le développement du télétravail, le maintien à domicile des personnes âgées ou handicapées, mais aussi l’augmentation de la consommation d’énergie et le développement des énergies de sources renouvelables bouleversent les modes de vie et de consommation. En outre, le secteur du bâtiment est le plus gros consommateur d’énergie parmi les différents secteurs économiques français. Sa consommation représente 42,5 % de la consommation énergétique française et environ 68 millions de tonnes d’équivalent pétrole8. La technologie est fortement impliquée dans les solutions étudiées pour résoudre ces grands enjeux.

Concernant les contraintes réglementaires, l’Union européenne impose aux pays membres d’améliorer leur efficacité énergétique et donc la performance énergétique des bâtiments. Les lois Grenelle 1 et 2 exigent également de concevoir et de construire des bâtiments plus sobres énergétiquement pour réduire la consommation d’énergie (bâtiment BBC, détaillé plus loin).

Les NTIC seront ainsi l’outil indispensable pour améliorer la gestion de l’énergie dans l’ensemble des bâtiments, maisons, immeubles d’habitation et de bureaux. Déjà progressivement mises en œuvre sur les réseaux publics de distribution intelligents (avec Linky, le compteur intelligent d’EDF), les NTIC introduites sur le réseau d’électricité privé permettront de gérer intelligemment les flux d’énergie et donc d’optimiser les consommations énergétiques.

Pour les entreprises, les systèmes de GTB permettent également d’illustrer une volonté d’améliorer la qualité de vie au travail. On se situe plutôt sur des entreprises du tertiaire qui souhaitent affirmer une image de qualité, montrer qu’elles suivent la digitalisation de nos sociétés modernes, et qui espèrent par ce biais séduire les talents des nouvelles générations (Y, Z).

Aspects écologiques

Les pays développés sont également de plus en plus conscients et impliqués dans le domaine du développement durable, de l’économie d’énergie, et du recyclage. C’est une tendance actuelle observable qui est reprise par la CGSP dans son rapport. La technologie est intimement liée aux recherches faites pour trouver des solutions face à ces grands enjeux de société. Le recyclage et le développement durable font aujourd’hui partie des considérations industrielles.

Les préoccupations environnementales dans le secteur de l'informatique n’ont commencé à apparaître que dans les années 1990 aux États-Unis, avec le programme gouvernemental Energy Star. Il a été initié par l'EPA (Environmental Protection Agency) en 1992 pour réduire les émissions de gaz à effet de serre. Plusieurs volets de ce programme concernaient les équipements informatiques : moniteurs, ordinateurs de bureau, ordinateurs portables et tablettes, systèmes informatiques intégrés, serveurs, stations de travail.

Dans les années 2000, d'autres préoccupations sont apparues avec la montée en puissance de la responsabilité sociétale dans les entreprises (RSE), puis des collectivités locales et des administrations à la suite des sommets de la Terre de Rio de Janeiro (1992) et de Johannesburg (2002). Ainsi a-t-on vu naître le concept de Green IT, et d’informatique verte.

La crise financière des années 20079 a accéléré la prise de conscience, car son impact important sur tous les acteurs économiques des pays concernés impose aujourd’hui une plus grande rigueur concernant les économies d’énergie. Cela se décline de manière concrète par plusieurs grands projets de société initiés par le gouvernement. Pour donner un exemple notable, aujourd’hui en 2015 la grande majorité des communes appliquent une politique économique concernant l’éclairage public (de moins en moins de lampadaires sont allumés la nuit sur les segments de route peu fréquentés).

Afin de généraliser les Bâtiments Basse Consommation (BBC), la réglementation thermique Grenelle Environnement 2012 prévoit que toutes les constructions neuves devront présenter, en moyenne, une consommation d’énergie inférieure à 50 kWh/m²/an (contre plus de 150 kWh/m²/an actuellement dans les cas extrêmes). Cet objectif sera atteint en donnant la priorité à la qualité de conception du bâti et à un bouquet énergétique équilibré, faisant une large place aux énergies de sources renouvelables. Mais les progrès ne s’arrêtent pas là, on parle aujourd’hui de Smart Grid.

Pour vulgariser, il faut imaginer que l’ensemble des consommateurs d’énergies soient à même de faire remonter toutes leurs consommations instantanées. On peut en extraire un modèle de consommation en énergie. Il faut également imaginer que l’ensemble des producteurs d’énergie (centrales mais également panneaux solaires et éoliennes) remontent également en temps réels leurs productions, et qu’on ait là aussi réalisé un modèle de production d’énergie.

Grâce à ces informations, il est possible de comprendre le fonctionnement global de l’offre et de la demande, et de gérer le parc de production en fonction du besoin. Ainsi, quand une période devient statistiquement favorable pour une production « durable » (solaire/éolien par exemple), on peut anticiper cette hausse et désactiver d’autres sources moins durables (nucléaire, charbon, etc.).

Le schéma ci-après représente globalement cette gestion à l’échelle d’une année. On part du principe que les modèles de consommation et de production sont déjà constitués, et on ne regardera que le modèle de production d’énergie solaire : l’éolien étant sujet à beaucoup plus de fluctuation.

Graph_conso.png

Représentation des moyens de production mis en œuvre en fonction des modèles de consommation et de production

On constate que le fait de disposer des modèles de consommation et de production (les courbes bleu et orange) rend aisé l’estimation des meilleurs moments pour mettre en œuvre ou désactiver une source de production. Ainsi, la période chaude de l’année coïncide avec la période de production maximale d’énergie solaire. La consommation est elle, propositionnelle aux températures et aux durées d’ensoleillement. De plus, l’inertie de mise en service des systèmes de production peut être intégrée au modèle : ici le temps nécessaire à la remise en service des centrales non-durables est pris en compte.

C’est un enjeu extrêmement fort pour nos économies développées d’être en mesure d’optimiser la gestion globale du besoin énergétique. La revue du CGSP évoquée plus haut souligne nettement l’importance de cette problématique au sein des administrations.

Bien entendu, les entreprises et industries sont fortement impliquées dans ce dispositif global, car elles représentent une part très importante des consommations générales (43% des ressources énergétiques10). Elles le font bien entendu pour elles-mêmes, dans l’optique de rationaliser leurs consommations. Mais la réglementation de plus en plus restrictive11 dans le domaine de l’énergie joue également un rôle moteur important. La Gestion Technique du Bâtiment joue donc un rôle essentiel dans ce plan d’action visant à réduire l’impact écologique.

Nous allons donc naturellement nous intéresser maintenant aux enjeux économiques.

Aspects économiques

D’un point de vue économique, la production d’appareillages de domotique et de dispositifs d’assistance, serait génératrice d’emplois industriels et techniques. On pense à la vente, l’installation et la maintenance de ces instruments bien entendu, créant ainsi un secteur à part entière, la « e-autonomie » (téléassistance active ou passive, géoassistance, vidéovigilance, télémédecine, chemin lumineux, etc.).

Selon une étude du BSRIA12 de 2013, le marché européen des équipements domotiques - estimé à 487,4 millions d’euros - est en pleine transition. D’un positionnement de niche en 2010 (haut et moyenne gammes représentant 60% des ventes) il devrait prendre une dimension de marché de masse à partir de 2015.

bsria.jpg

Répartition des segments marchés européens sur le secteur de la domotique en 2013

Sur le marché des particuliers, les applications haut de gamme représenteraient 68% du chiffre d’affaires. Et, paradoxalement, dans les bâtiments BBC13 la domotique serait également sous-représentée. Mais, selon l’auteur de l’étude Gambi Chang :

La grande majorité des applications concernent seulement la gestion de l’éclairage et de l’occultation, de plus en plus de systèmes de contrôle intégrant également le chauffage sont installés.

Un segment de marché spécifique abordé par le BSRIA, les systèmes de contrôle du confort dans le logement (essentiellement chauffage et ventilation), est lui évalué à 86,2 millions d’euros. Avec un taux de pénétration plus élevé de ces produits, ce marché apparaît plus mature et déjà bien maîtrisé par les acteurs non professionnels en Europe.

Mais la concurrence s’annonce très féroce. On peut observer aujourd’hui en 2015 que les opérateurs internet souhaitent prendre place sur ce marché (SFR Home, Homelive d’Orange, etc.) car ils disposent d’un ancrage fort existant : les box ADSL sont connectées à la TV depuis un moment déjà. Mais les acteurs du multimédia et notamment des jeux vidéo ont également une présence importante. Ils sont aussi connectés à l’écran, et convergent également vers la domotique grâce à leurs interfaces utilisateurs innovantes (commande vocale et gestuelle, comme la Xbox de Microsoft™) et aux solutions d’interfaçage qu’ils ont avec les smartphones et tablettes.

Bien entendu, les fabricants notamment sous l’égide du CECED (Conseil Européen de la Construction d'Équipements Domestiques) participent activement aux recherches dans ce domaine.

On peut donc faire une cartographie rapide des principaux acteurs qui se dessinent sur ce marché :

Concurrents_domotique_particuliers__2_.png

Les concurrents sur le marché de la domotique des maisons individuelles

Aux acteurs plus « traditionnels » que sont les éditeurs spécifiques, viennent se rajouter une multitude d’acteurs, qui se verraient bien vendre leurs produits avec des services associés.

Selon le cabinet Xerfi14, « toutes les conditions sont enfin réunies pour faire de la maison intelligente un véritable marché de masse » en 2015, et il pronostique une croissance de 35% par an pour le marché français, qui devrait atteindre près d’un milliard d’euros.

Paradoxalement, l’enquête du BSRIA donne également un axe de travail pour faire émerger la domotique dans la cour des « grands marchés » :

se concentrer sur la gestion du confort et de l’énergie. Le multimédia et la sécurité étant alors destiné à rester des activités de spécialistes
L’auteur justifie cet avis par une analyse des niveaux de pénétration des différents secteurs observés dans son étude.

Néanmoins, comme on observe que nouveaux acteurs font leur apparition et qu’ils se sont eux concentrés sur les activités multimédia avant de rentrer dans le domaine de la domotique, il reste une forte incertitude sur les acteurs qui arriveront à pénétrer, développer et concentrer ce marché.

Rappelons que sur le marché particulier, les systèmes domotique d’efficacité énergétiques n’ont pour l’instant pas encore véritablement explosé, même si on observe une hausse significative des volumes de vente dans ce secteur.

Mais en parallèle, les pouvoirs publics (l’Union européenne, l’État, les médias ou les centres de recherche) jouent un rôle clé dans cette mutation. Ainsi, par exemple, entre 2002 et 2006, dans le cadre du 6ème programme-cadre de recherche et développement (PCRD), l’Union européenne, a financé plus d’une soixantaine de projets sur le thème « réseaux intelligents et intégration des énergies renouvelables », pour un investissement total de quelque 190 millions d’euros.

Quittons maintenant le marché des particuliers pour nous intéresser plus spécifiquement aux organisations (entreprises, établissements publics, associations, etc.) qui doivent elle gérer des immeubles plus importants et nombreux. Cette thèse portera principalement sur les entreprises et les systèmes de GTB, la domotique des maisons individuelle étant un sujet qui mériterait un traitement à part entière.

Retour sur investissement pour l’entreprise

Les entreprises recherchent en premier lieu la performance énergétique. C’est donc naturellement vers les systèmes permettant de piloter et d’optimiser les consommations des bâtiments qu’elles se sont tournées. Dès les années 1990, des systèmes performants permettaient de piloter les installations de chauffage et de climatisation. On ne citera pas d’acteurs en particulier tellement de nos jours tous les bâtiments d’entreprise ont un système intelligent de gestion du confort.

Les dépenses en eau, en électricité, en chauffage, sont ainsi passées au crible. Les tableaux récapitulatifs fournis par le système permettent de faire le point sur ces consommations. Mais la GTB ne s'arrête pas au diagnostic : il est possible d’agir sur le système en donnant les moyens aux responsables de la maintenance de fermer automatiquement, par exemple, les robinets de tel ou tel secteur chaque soir pour éviter une déperdition d'eau.

vue_bms.jpg

Exemple d’écran d’un système de GTB permettant d’analyser la consommation d’un bâtiment

Comme les technologies de domotique surveillent en permanence le bon fonctionnement de chaque organe et son vieillissement, elles peuvent améliorer la maintenance préventive et diminuer la maintenance curative, réduisant les coûts d’entretien ou d’interruption d’activité. Par exemple, un composant usagé pourra être remplacé avant qu’il ne tombe en panne, et impacte ceux qui en font usage. Autre exemple : les imprimantes connectées peuvent être entretenues de manière préventive.

Ce n’est pas l’objet de cette thèse que de discuter des avantages financiers de la maintenance préventive (faite en amont) comparée à la maintenance curative (faite quand le problème survient). Néanmoins on considérera, vu les nombreux exemples et retours d’expériences présents dans les références bibliographiques, qu’il est effectivement intéressant pour une organisation de développer la maintenance préventive.

Néanmoins, une fois équipée d’un bâtiment intelligent, l’organisation ne doit pas imaginer que les contraintes liées à son entretien et à sa gestion vont disparaitre. C’est en effet une promesse des intégrateurs qui déploient des solutions de GTB, et un point que l’on retrouve souvent dans la littérature.

De plus, Gambi Chang dans son rapport pour la BSRIA (Immotic And Energy Supply Contracting, 2013) observe également un transfert de risques et d’activités vers des prestataires (venir alimenter les consommables des imprimantes, alerter les pompiers en cas d’incendies, etc.) Ce fonctionnement apporte de la flexibilité pour l’entreprise car elle peut disposer d’options plus ou moins onéreuses, qui vont venir faciliter ses activités ou réduire des risques. Néanmoins, le cadre contractuel de cette externalisation de responsabilité n’est pas toujours spécifié dans les expressions de besoins des organisations.

Enfin, nous noterons qu’un projet de GTB va souvent avez un enjeu d’image pour l’entreprise : en mettant en avant une entreprise responsable, qui en plus d’optimiser ces dépenses peut également produire de l’énergie et contribuer à une économie durable. Ce gain d’image peut se traduire ensuite dans la relation clientèle.

Par contre, les systèmes de GTB sont onéreux et représentent un investissement important. L’entreprise va bien entendu rechercher un retour sur investissement aussi rapide que possible. D’autant qu’en plus de l’investissement initial, l’entreprise doit également assumer l’ensemble des coûts de possessions15. Ces coûts sont représentés dans le schéma ci-dessous16 :

tco.png

Composants du coût total de possession (TCO)

Synthèse

Nous venons de voir que le marché de la domotique est relativement récent, principalement poussé par la neccessité de faire des économies d’énergie et d’investir dans l’économie durable.

Pour les particuliers, la domotique est un secteur en pleine croissance. Les acteurs sur ce marché sont très divers, du spécialiste au vendeur de console, en passant par les opérateurs ADSL.

On considère également aujourd’hui que la domotique pourrait apporter des solutions à des problèmes sociétaux tels que le viellissement de la population, ou la meilleure prise en charge de la dépendance des personnes agées ou handicapées.

Pour les entreprises, on parle de « Gestion Technique du Bâtiment » (GTB) ; elle existe depuis les années 1980. Les systèmes sont matures aujourd’hui et couvrent l’ensemble des aspects de gestion du bâtiment : consommations, ouverture et fermeture des entrées, surveillance et contrôle des accès, etc.

Les avantages sont nombreux, mais se situent essentiellement :

  • Sur une logistique du bâtiment simplifiée et automatisée,
  • Sur des gains en maintenance préventive,
  • Sur la possibilité de consulter toutes les données du bâtiment à des fins analytiques,
  • Sur un gain d’image lié aux préoccupations de l’entreprise à ses consommations.

Les enjeux économiques s’annoncent importants sur les années à venir, et la croissance du secteur est déjà vérifiable. On observe actuellement une « ruée » des industriels sur le marché, et les projections laissent à penser que dans les années à venir, le nombre de bâtiments infogérés et connectés va tout simplement exploser.

Dimension organisationnelle de la GTB

Alors que les systèmes autorégulés comme la climatisation réversible sont historiquement gérés par les moyens généraux ou les équipes structure, les équipements domotiques s’appuient fortement sur les réseaux et sont donc gérés par la Direction des Systèmes d’Information (DSI) au sein des entreprises.

Cette intégration se fait souvent avec beaucoup d’appréhension17, comme ce fut le cas pour la Voix Sur IP (VoIP18) qui transféra la gestion de la téléphonie dans le giron de la DSI. La sécurité de la téléphonie est souvent restée un sujet à part dans l’entreprise. Désormais, les risques associés aux systèmes téléphoniques19 peuvent avoir des conséquences graves sur le système d’information et sur l’entreprise.

On peut faire une autre analogie avec la tendance du Bring Your Own Device (BYOD) : une pratique qui consiste à utiliser ses équipements personnels (téléphone, ordinateur portable, tablette électronique) dans un contexte professionnel. Alors qu’une DSI cherche souvent à rationaliser ses composants en s’appuyant sur du matériel standard et éprouvé, cette pratique va multiplier les types de périphériques connectés au système d’information. Les équipes support se retrouvent alors à devoir gérer des matériels très différents, ce qui peut entrainer une hausse des demandes de support, et des difficultés pour diagnostiquer et résoudre les incidents.

L’approche BYOD est généralement considérée comme une source de risque par les entreprises. Néanmoins, elle est aujourd’hui relativement répandue (plus de détails en annexe).

Ainsi donc, la GTB implique une certaine réorganisation de la structure. Premièrement, la DSI doit intégrer ces flux de données dans son réseau. Ensuite, elle doit donner accès au système aux opérateurs du maintien en condition opérationnelle du bâtiment (souvent les Moyens Généraux ou les services Structure). Mais elle doit également les offrir à la Direction et au Contrôle de Gestion, qui vont pouvoir en faire une lecture analytique.

L’entreprise va pouvoir ainsi se concentrer sur son cœur de métier, en réduisant au minimum ses effectifs sur la gestion technique. Elle va déporter à des prestataires la maintenance et la gestion de ses systèmes. On pourrait réfléchir ici à la plus-value réelle de ce mode de fonctionnement, et de l’appauvrissement des compétences internes à l’entreprise. Une réflexion à ce sujet est proposée à la fin de cette étude, mais nous nous contenterons ici d’évoquer les possibilités d’externalisation offertes par les systèmes de GTB.

Revenons à la DSI. D’après la littérature l’intégration de la GTB dans un Système d’Information existant est souvent génératrice d’appréhensions. Cela peut se comprendre si on prend en compte le très large panel d’activités qui sont du ressort de la DSI. Une vue partielle du périmètre complet de la DSI est donnée dans le schéma ci-après :

Périmètre fonctionnel de la DSI actuellement, avec la Gestion Technique du Bâtiment à intégrer

Lexique des termes employés dans ce schéma :

  1. RSE : Réseau social d’entreprise, réseau social interne à l’entreprise.
  2. BI : Business intelligence, ou informatique décisionnelle, orientée pour les décideurs.

On constate que le périmètre fonctionnel de la DSI est assez large : il va de l’informatique courante (applications métiers, support, outils de communication, demandes de support, etc.) à des projets complexes (voir ci-après).

L’intégration des systèmes de domotique/immotique dans la DSI complexifie donc d’avantage la structure des réseaux informatiques, et augmente la portée que pourrait entrainer une vulnérabilité dans le système. D’où une certaine réticence des DSI à l’intégration.

De plus, les processus de la DSI sont impactés : la plateforme de service (la hotline) gère historiquement le support (l’assistance à l’utilisateur) et les demandes de service (traiter les demandes informatiques, comme mettre à disposition un ordinateur configuré ou installer un logiciel métier). Elle doit désormais traiter des demandes liées au système informatique du bâtiment : donner accès à la configuration de l’éclairage d’une pièce via un smartphone, avertir l’équipe structure quand un équipement est en panne, offrir les moyens de définir la stratégie de consommation d’eau par exemple, etc.

Plus techniquement, l’impact monte également au niveau de la Gouvernance des Systèmes d’Information, car la stratégie de l’entreprise concernant ses consommations énergétique et les services offerts aux employés se retrouvent déclinés dans le schéma directeur20 de la DSI.

La GTB apporte une opportunité pour l’entreprise, si elle parvient à surmonter les contraintes organisationnelles qu’elle impose. Cette intégration doit également se faire alors qu’on demande aujourd’hui de plus en plus à la DSI de s’aligner sur les métiers de l’entreprise, c’est-à-dire d’être un organe réactif capable de fournir des solutions informatiques permettant au métier de réaliser sa production. Un rapport de 2013 publié par l’institut Gartner21 apporte un éclairage intéressant à ce sujet. Elle porte sur une analyse des thématiques traitées par les DSI actuellement, et constate que la priorité est donnée à la sécurité, et à la réduction des coûts du SI.

Le schéma ci-dessous, provenant de cette étude, analyse la répartition des thématiques sur la population de DSI observée :

Thématiques principales des DSI en 2013 d’après Gartner

Les principales préoccupations des DSI révélées par le rapport portent sur :

  • La Virtualisation : optimiser l’utilisation des serveurs et donc diminuer l’investissement,
  • La Gouvernance : l’alignement stratégique avec les métiers, comme expliqué plus haut,
  • La Sécurité : prévenir des menaces de plus en plus diverses,
  • Le Cloud Computing : externalisation de certains services sur des prestataires, par exemple la messagerie ou le stockage des fichiers,
  • Le Big Data : analyse de données à des fins de reporting, de maintenance préventive, d’opportunités commerciales, etc. On parle aussi de Business Intelligence (BI).
  • Et enfin, le Green IT : réduire les consommations en électricité de l’infrastructure informatique. C’est ici que l’on retrouve fréquemment les projets de GTB.

On constate donc que les DSI doivent actuellement se confronter à de nouvelles demandes de la part de leurs organisations (voir également l’annexe), et que l’intégration GTB est à la fois une opportunité (réduction des consommations, transfert de responsabilité, etc.) mais également un risque sur le système d’information et l’organisation elle-même (menaces informatiques augmenté, incapacité de la DSI à traiter les demandes des utilisateurs, etc.)

Ainsi, on comprend que l’intégration de ces systèmes dans un Système d’Information (SI) existant n’est pas toujours réalisée avec le niveau de priorité adéquat, et avec des délais qui conviendraient à une bonne étude d’impact. Il appartient donc à la direction de guider l’organisation en fonction des axes de développement stratégiques. Il lui faut néanmoins prendre en compte une multitude de facteurs, comme illustré par le schéma ci-dessous :

Le schéma ci-dessous, provenant de cette étude, analyse la répartition des thématiques sur la population de DSI observée :

Illustrations des différents paramètres (TOHE) à prendre en compte dans un projet de GTB

Synthèse

Pour l’entreprise, la domotique, la GTC ou encore la GTB sont des systèmes relativement méconnus. A part les grandes industries, qui ont intégré depuis des années leurs outils de production dans le SI, la gestion d’éléments techniques comme un bâtiment n’est pas un fait coutumier pour une entreprise, comme pour une DSI.

La DSI fait face aujourd’hui à bien d’autres défis : la gouvernance stratégique, l’externalisation des services dans le Cloud, la mise en place d’ERP, etc. Elle doit donc intégrer les projets de GTB dans un contexte où l’activité est déjà intense. Un projet de GTB a tous les risques de ne pas être traité avec le temps et l’attention neccessaire au niveau de complexité qu’il implique.

Elle devra également se préparer à traiter des demandes liées au bâtiment. On se rapproche donc d’un modèle où le service informatique devient un point d’entrée pour tous les services supports de l’entreprise. La DSI doit donc faire face à un projet qui dépasse simplement l’aspect technique, et poser les bonnes questions concernant l’impact organisationnel d’une GTB.

Enfin, nous avons vu que la direction de l’organisation qui souhaite mettre en place un projet de GTB, doit ajuster un curseur entre le niveau de fonctionnalité, le niveau d’externalisation, le niveau de sécurité et le niveau d’ouverture de son système. Souvent contraintes par les moyens financiers disponibles, il est important de rester vigilant au niveau de sécurité du système.

Ces réserves désormais soulevées par la bibliographie, nous allons maintenant faire un focus sur la GTB en tant que Système d’Information (SI), afin d’observer techniquement comment il est construit et quel est son périmètre d’action.

Dimension technique de la GTB

Le système d’information de la GTB

Les systèmes de GTB fonctionnent généralement de la même manière. Les données sont acheminées vers un nœud de traitement, le plus souvent un serveur contenant les applicatifs associés pour stocker, traiter et utiliser la donnée. Les composants sont connectés de manière permanente. Ils remontent régulièrement l’état de santé du service, les données acquises par les différents capteurs, et peuvent également lever des alertes. Ces données représentent une quantité variable en fonction des composants intégrés. Ainsi, une caméra de surveillance produit plus de données qu’un capteur de fermeture de porte.

Les éléments connectés sont de plus très hétérogènes dans leurs fonctions et dans leurs modes de fonctionnement, comme le montre la figure ci-dessous :

Le schéma ci-dessous, provenant de cette étude, analyse la répartition des thématiques sur la population de DSI observée :

Périmètre technique du SI spécifique GTB

Cette grande variété de systèmes entraine le traitement de données très diverses, dont il faut assurer l’intégrité, la traçabilité, la validité et la confidentialité. Elles doivent être collectées dans des bases de données spécifiques, qui favorisent une écriture rapide de celles-ci. La bonne pratique évoquée dans la littérature est d’isoler le système de GTB sur un autre réseau que celui où sont connectés les utilisateurs.

Les composants génèrent des données qui sont acheminées vers un point central : le Building Management System (BMS). Ce composant, souvent matérialisé par un boîtier électronique, centralise les flux, enregistre les données dans une base, et met en œuvre la logique de traitement.

Schéma simplifié de fonctionnement d’un système de GTB.

La mise en place d’un système de GTB implique souvent de combiner les solutions provenant de plusieurs éditeurs ou équipementiers. En effet, la chaîne complète de traitement des données (présentée ci-dessous) est composée à la fois d’équipements physiques (capteurs, câbles, routeurs, etc.) et logicielles (logiciels embarqués, applications, etc.).

Chaîne d’acquisition et de traitement des données GTB.

Ainsi donc le Système d’Information (SI) spécifique à la GTB induit de nouveaux flux de données dans le SI existant, ainsi que de nouveaux services et applications. Ces applications vont permettre de gérer spécifiquement les sous-systèmes de la GTB. On retrouve par exemple :

  • Les applications de GMAO (Gestion de la Maintenance Assistée par Ordinateurs),
  • La gestion d’énergie (EMS, ou Energy Management System) qui permet d’afficher les consommations et de définir des stratégies de régulation,
  • La sécurité : gestion des caméras de surveillance et des accès notamment,
  • Et enfin le Building Management System : qui va permettre le contrôle des équipements du bâtiment (volets, portes, vannes d’arrivée d’eau ou de gaz, etc).

Il y a principalement deux typologies différentes pour les systèmes de GTB. La première approche est la plus simple et intuitive : rajouter dans le SI existant les équipements et services de la GTB.

Système de GTB introduit à l’intérieur d’un SI existant.

Dans ce cadre, c’est directement la DSI qui va fournir les solutions techniques matérielles et logicielles de la GTB. Bien entendu elle s’appuie sur des prestataires, mais la gestion opérationnelle du système sera intégrée directement dans son périmètre.

Mais de plus en plus les systèmes de GTB s’orientent vers des solutions dites « en Cloud », c’est-à-dire externalisées chez un prestataire qui offre l’infrastructure comme un « service ». Il n’y a plus nécessité pour l’entreprise d’acquérir les serveurs, car elle est désormais liée par un contrat d’utilisation du service. L’entreprise accède à ce service via un simple site Web. Pour être plus technique, on parle alors du mode SAAS. Le logiciel en tant que service ou Software-As-A-Service est un modèle d'exploitation commerciale des logiciels dans lequel ceux-ci sont installés sur des serveurs distants plutôt que sur la machine de l'utilisateur (Wikipédia).

Le fonctionnement est résumé dans l’illustration suivante :

Système de GTB externalisé vers un prestataire tiers.

Dans ce mode de fonctionnement, les flux transitent à l’extérieur de l’entreprise (à gauche) pour rejoindre les infrastructures du prestataire tiers (à droite). Il y a deux gains fonctionnels bilatéraux :

  • L’entreprise cliente délègue à son prestataire le fonctionnement opérationnel de son système de GTB. Elle n’a plus besoin de faire un investissement important car le matériel peut être loué. Elle est désormais liée à un contrat de service avec le fournisseur, dont la facturation dépend désormais des sous-systèmes connectés, de la quantité de données transitée, et du niveau de service attendu par le client.

    Le fournisseur de la solution quant à lui dispose désormais des données de tous ses clients.

Nous reviendrons plus tard sur le deuxième aspect, car il est lié au sujet que nous allons aborder maintenant : les capacités d’automatisation des systèmes de GTB.

Automatisation des systèmes de GTB

Les logiciels de GTB apportent surtout des possibilités d’automatisation, c’est-à-dire la capacité du système à prendre des décisions sans intervention humaine. Il y a plusieurs niveaux :

  • Manuelle : c’est un opérateur humain qui déclenche toutes les actions du système, à partir des données remontées.
  • Assistée : la machine va proposer des actions possibles en fonction des situations, et c’est à l’opérateur humain de prendre la décision finale.
  • Programmée : l’opérateur humain détermine à l’avance des consignes à respecter (une température de chauffage par exemple), ou bien des seuils de réaction (allumer les lumières quand l’éclairage naturel est insuffisant). Le système va ensuite les appliquer.
  • Automatique : le système est à même de prendre des décisions seul car il a appris à le faire.

Ces niveaux de gestion ont un impact fort sur les axes techniques et organisationnels d’une structure. En fonction du degré d’automatisation, la nécessité qu’une personne supervise le système peut varier.

L’avenir de la GTB se situe dans ce domaine. En effet, le développement de services clés en main qui intègrent l’ensemble de la gestion technique d’un bâtiment permet de proposer des solutions qui dégagent les clients de certaines responsabilités quant à la gestion du bâtiment ; C’est l’argument actuel des éditeurs de solutions.

Cette automatisation a donc un lien direct avec la rationalisation des coûts de structure. Il y a également un lien évident avec le rôle des acteurs humains dans de tels systèmes.

Il n’est pas question ici de prendre un parti-pris quant à la place de l’être Humain dans ce système. En informatique, la présence d’un humain pour piloter un équipement n’est ni mieux ni moins bien. En effet, un système mal conçu va donner de moins bonnes décisions qu’un humain, qui a lui la capacité de prendre du recul. Mais un humain peut introduire des erreurs ou de la malveillance dans son utilisation du système.

Néanmoins, il nous faut aborder ici une autre considération technique : la résilience du système, c’est-à-dire sa capacité à fonctionner alors que certains de ses composants ne sont plus fonctionnels. Pendant longtemps, le schéma de fonctionnement des appareils communicants était envisagé de façon assez primaire, sur un modèle maître/esclave, induisant alors une complexité sur le nœud central, synonyme de risque accru de dysfonctionnement et de conséquences critiques.

Les deux types de modèles de coordinations.

La répartition de l’intelligence permise par les nouvelles technologies, réduit cette criticité et rend l’ensemble du système potentiellement bien plus tolérant à la panne d’un de ses composants. Il n’élimine cependant pas la complexité mais en change la nature, en passant d’un système centralisé à un système distribué. A titre d’information, il s’agit de systèmes dits Multi-Agents.

Synthèse

Nous avons constaté lors de cette étude que les Systèmes d’Informations sont au cœur de la Gestion Technique du Bâtiment. Les systèmes reposent sur un socle technique globalement connu (TCP/IP), mais de nombreuses nouvelles technologies font leur apparition (wireless IoT, applications smartphone). La DSI doit aujourd’hui prendre en compte ces nouvelles technologies, qui vont souvent de pair avec de nouveaux usages (Bring Your Own Device par exemple).

L’état de l’art dans le domaine s’appuie sur différents types d’architecture, en fonction de la criticité du Système d’Information et de son périmètre d’action. Les solutions clés en main (COTS22 ) intègrent souvent des composants logiciels et matériels de différents éditeurs. Ce niveau élevé de composants peut être vu comme un facteur de risque. De plus, les bonnes pratiques en l’état de l’art recommandent de séparer le réseau des objets du réseau où sont connectés les utilisateurs.

De plus, l’accès à l’interface de traitement est un élément central de la sécurité du système. En effet, les données du bâtiment intéressent souvent bien plus de monde que la DSI uniquement. Décideurs, moyens généraux et parfois même tous les membres de l’institution vont avoir accès aux données. Qu’elles soient externalisées (cloud) ou accessibles en interne (intranet, VPN23 ), elles sont toujours utiles dans une optique analytique.

Enfin, les flux provenant des différents capteurs et actionneurs sont agrégés vers un système de gestion centralisée24. Ce point central est un élément critique du système, et implique donc de mettre en place des solutions pour s’assurer de son bon fonctionnement (redondance des équipements, sauvegardes régulières, supervision, etc.) et de sa sécurité (cryptage des télécommunications, protection physique, etc.)

Nous allons justement étudier maintenant la dimension sécurité de ces systèmes.

Aspects de sécurité

Panorama du risque pour une entreprise

La vulnérabilité des systèmes informatiques et industriels est aujourd’hui, en 2015, au cœur des préoccupations des acteurs de l’entreprise, qu’ils soient externes (fournisseurs, éditeurs, etc.) ou internes à l’organisation (DSI, sécurité, communication, direction, etc.).

L’actualité récente (voir exemples ci-après) montre que les enjeux liés à la cyber-sécurité sont en augmentation constante ces dernières années. Les organisations doivent impérativement prendre en compte les différents risques qui pourraient survenir en cas d’atteinte à la sécurité du Système d’Information.

A titre d’illustration, le schéma ci-dessous a pour but de présenter des exemples d’impacts qui pourraient être causées par un vol de données ou par une attaque informatique :

Différents impacts suite à un vol de donnés ou à une attaque de déni de service.

Il faut bien comprendre que plus le Système d’Information agrège des sous-systèmes, plus la surface d’attaque est élargie. Ainsi, les systèmes de GTB sont concernés, car ils multiplient les composants connectés, et ils vont permettre d’obtenir des informations précieuses concernant les habitudes des résidents d’un bâtiment.

Ce rapide inventaire des impacts réalisé, intéressons-nous aux avis des experts dans ce domaine.

Avis d'experts

Ron Gordon, conseiller CISCO principal pour le Canada, évoque25 le cas d’une architecture de GTB Tridium qui a été piratée dans le bâtiment Google Wharf 7 à Sydney en 2013. L’appareil Tridium est utilisé pour la visibilité et le contrôle de divers systèmes de gestion des bâtiments. En y accédant, le pirate a obtenu le contrôle de tous les systèmes de bâtiment connectés par le biais de l’appareil.

Cette attaque a été menée par une entreprise de sécurité travaillant sur un projet visant à identifier la vulnérabilité des systèmes de contrôle industriel (SCI). Ses intentions n’étaient donc pas malveillantes. Mais le fait est là : les possibilités d’atteintes à la sécurité sont constantes, et les bâtiments sont concernés. Ron Gordon explique une partie de cette situation :

Les bâtiments de construction classique utilisent pour leurs solutions de [GTB] des réseaux variés et souvent non sécurisés. La qualité et la sécurité des réseaux se situent au bas de la liste des priorités, puisque la spécialité des entreprises de [GTB] consiste à offrir leurs solutions et non à suivre les meilleures pratiques de réseaux sécurisés et à prévenir les accès non autorisés.

Il estime que quand la sécurité de ces infrastructures n’est pas bien gérée (pas de pare-feu applicatif, non mise à jour des correctifs de sécurité sur les logiciels, stratégie de mot de passe inadaptée, etc.) elle induit des vulnérabilités identiques aux SI traditionnels, c’est-à-dire d’un réseau servant au fonctionnement d’une entreprise. De plus, il note que c’est souvent un composant en dehors de la GTB qui est à l’origine de la vulnérabilité (serveur Web par exemple) et que suite à cette première intrusion, l’accès à la GTB est possible.

Globalement, il juge la sécurité de ces systèmes élevée s’ils sont intégrés par des professionnels spécifiques. En effet, si on prend l’exemple des systèmes de chauffage, ventilation et climatisation (CVC), ils sont souvent intégrés par des revendeurs agréés spécialisés. Ils disposent souvent également d’une infrastructure de communication décorrélée du réseau local d’entreprise. Et il conclue par : « Pour cette raison, le réseau est conçu pour être de niveau professionnel, ce qui comprend non seulement la fiabilité, mais aussi la sécurité. »

Les menaces sont intuitivement externes (piratage par un tiers, vol d’informations sensibles, altération des données pouvant provoquer des interruptions d’activité, etc.). Mais il faut également prendre en compte des sources de risques internes (emballement du système, saturation de données, vol d’informations par un salarié interne, récupération de données par un prestataire externe au sein des locaux de la structure, etc.)

La section suivante a pour but d’illustrer les différentes menaces actuelles.

Exemples

Les menaces informatiques ont particulièrement évolués ces dernières années. En réponse au nombre croissant des systèmes connectés, et à la multiplication constante de données gérées par ces systèmes, on a vu apparaitre de nouvelles menaces.

Dans le Panorama de la Cybercriminalité (CLUSIF, 2015) deux nouvelles menaces sont présentées. La première concerne le Ver Linux Darlloz (Mars 2014) :

  • Apparu en 2013,
  • Cible les objets connectés domestiques,
  • Exploitation d’une vulnérabilité de PHP (serveur Web),
  • Mise à jour pour minage de Bitcoin26.

Le premier changement concerne la cible de l’attaque : les objets connectés. Ensuite, l’attaque vise non pas à perturber le système (détectable) mais plutôt à rester silencieux et exploiter la machine cible pour enrichir l’auteur de l’attaque (ici générer de la monnaie).

Ensuite, un autre exemple évoqué est celui du spamming27 par un botnet d’objets28 connectés (Janvier 2014). Le virus visait exclusivement les petits objets, disposant de micro-logiciels intégrés. Cette attaque a impacté plusieurs milliers d’objets (TVs, réfrigérateur, routeurs, ...), et a permis à ses propriétaires d’envoyer plus de 50 000 spams, environ 10 par objet infecté.

Ici aussi on constate que la cible est l’objet connecté. Celui-ci dispose de peu de ressources et les données traitées n’ont pas forcément une valeur importante, mais la multiplicité des machines touchées permet de réaliser des actions de masse, comme ici l’envoi d’email (de spam).

Dans l’article Synthèse sur la sécurité des réseaux domotiques orientés Gestion Technique du Bâtiment. Les nouvelles technologies dans la cité29, les auteurs identifient que la GTB est un environnement technique favorable pour les attaques informatiques. La diversité des équipements connectés offre une surface d’attaque étendue, et des ressources certes limitées mais nombreuses pour exploiter durablement ces équipements.

L’actualité apporte également des certitudes concernant une autre menace : le ransomware. Il s’agit ici de rançonner un individu ou une institution, en réalisant un chantage. Ce chantage peut s’exercer sur des données (capture) ou sur des ressources (blocage). L’assaillant va signaler à sa cible le chantage, en vue d’obtenir une rançon. Il y a deux dimensions : les attaques ciblées et les attaques de masse.

A titre d’exemple, plusieurs sociétés ont été victimes ces dernières années (entre 2012 et 2014) d’attaques de type ransonware.

Voici un court éventail d’exemples fourni par le CLUSIF :

Autres exemples rançonnage de données dans les entreprises

Source : CLUSIF, Rançons et fraudes aux présidents, Gérôme BILLOIS, Senior Manager, Solucom, 2013

Ainsi, la typologie et la motivation de ces attaques ont évolués. On constate aussi que la complexité technique évolue également. Stuxnet est un exemple marquant : c’est un ver informatique découvert en 2010 conçu par la NSA pour s'attaquer aux centrifugeuses iraniennes d’enrichissement d'uranium. C'est le premier ver découvert qui espionne et reprogramme des systèmes industriels, ce qui comporte un risque élevé. Il cible spécifiquement les systèmes SCADA utilisés pour le contrôle commande de procédés industriels30.

Les événements liés à l’affaire Snowden livrent un bref éclairage sur les pratiques de l’agence nationale américaine d’intelligence (NSA). La complexité technologique des belligérants dans les conflits numériques augmente. Mais attention, car comme le dit Philippe BOURGEOIS (Evolution technique de la menace, 2015), on se focalise sur les états car la guerre informatique est encore mal connue, mais ce sont bien les entreprises qui sont aujourd’hui attaquées de toutes part : que ce soit pour de l’espionnage industriel ou pour en tirer profit.

Enfin, plus généralement, il faut bien comprendre que la menace informatique est constamment mouvante et imprévisible. Tous les experts en sécurité s’accordent là-dessus : aucun système est fiable, c’est une question de temps avant qu’une faille soit découverte. Ainsi, tous les appareils et logiciels informatiques sont susceptibles de présenter des failles un jour ou l’autre, et la GTB ne fait pas exception à la règle.

A quoi s’attendre en 2016 ?

D’après un baromètre publié par l’institut Forrester Consulting31, les administrateurs informatiques dans les entreprises « s’inquiètent à juste titre sur les menaces à l'extérieur de leurs réseaux, mais considèrent que les plus grandes menaces viennent de l'intérieur, souvent à la suite d'accidents ou de négligences de la part des employés ». L’infographie ci-dessous représente, avec un peu d’humour, la répartition des différentes situations qui ont entrainé des atteintes à la sécurité des données, dans les 305 entreprises IT interrogées :

Menaces IT sur un panel de 305 entreprises sondées par Forrester Consulting en 2010

Ainsi, le vol ou la perte d’ordinateurs ou de smartphones des employés d’une entreprise est fréquent. Ces périphériques contiennent souvent des mots de passes et des données permettant d’accéder au système informatique.

C’est une situation relativement classique, dans la mesure où il faut engager moins d’effort pour dérober un ordinateur que pour développer un virus capable de déjouer des systèmes de sécurité extrêmement complexes. Néanmoins, d’après le CLUSIF en 2014 32 on constate une explosion des attaques techniques sur des objets connectés. Environ 70% des objets connectés seraient vulnérables à des attaques informatiques. Le CLUSIF constate également une forte et rapide augmentation des attaques sur les objets connectés. En effet, ces objets génèrent parfois des données de très haute valeur (données médicales, techniques, géographiques, liées à la sécurité). Le niveau de renseignent que ces données véhiculent en font une cible très intéressante.

Le CLUSIF note également le développement important des ThingBots (réseaux extrêmement souples et résilients d’objets infectés, avec de multiples points d’accès, d’où une attribution33 très complexe). Tous les objets sont attaqués : des télévisions connectées aux réfrigérateurs intelligents, en passant bien entendu par les capteurs et actionneurs des systèmes domotiques.

Les systèmes de GTC offrent en effet un accès au contrôle physique (isolement du domicile, d’un bâtiment, d’une voiture de service ou d’un étage, etc.) et accentuent ainsi la force de frappe des attaques informatiques.

En premier lieu, ce sont les entreprises qui sont la cible des attaques, en majorité les multinationales (énergie, militaire, aérospatiale, automobile, etc.) ; celles qui ont une ampleur internationale principalement, ou celles qui travaillent pour ces dernières (attaques par la chaine de sous-traitance). Principalement car les renseignements qu’elles possèdent permettent l’espionnage industriel et concurrentiel. Mais le CLUSIF note également que les petites structures (PME) sont de plus en plus des cibles potentielles. Souvent mal préparées en terme de sécurité et peu informées des bonnes pratiques à appliquer, elles sont des cibles de choix pour le chantage (ransomware) ou l’introduction de botnet.

Philippe BOURGEOIS dans Evolution technique de la menace, 2015 note également que le risque d’attaque technique augmente. Concrètement, il observe une tendance à piéger le hardware : les composants physiques sont altérés et reprogrammés suite à une rapide intervention ou bien à l’ajout d’un module électronique. C’est compréhensible quand on considère qu’aujourd’hui la majorité des composants physiques possèdent des entrées extrêmement standards, comme l’USB34 ou le RJ4535. En effet, les éditeurs d’appliances36 cherchent bien souvent à sécuriser les interfaces logicielles exposées (interface homme machine et interfaces de programmation accessibles depuis le réseau), mais ne pensent pas toujours à sécuriser les connectiques.

L’ensemble de ces facteurs fait que l’on peut constater une augmentation de l’implication de la technologie dans les délits. Pour plusieurs raisons principales d’après le CLUSIF :

  • Facilitation de la recherche d’objets vulnérables et de l’exploitation des failles,
  • Possibilité d’atteindre physiquement une entreprise, une habitation, une personne, …
  • Préparation d’actes délinquants et criminels (repérage des lieux, habitudes des occupants, surveillance en temps réel, accès physique aux points d’entrée du réseau, etc.)

Si on en croit ces prévisions d’experts, les systèmes de GTB vont naturellement entrainer la complication des enquêtes (de police ou des assurances), car un déverrouillage à distance ne laisse pas de verre brisé…

Synthèse

Nous venons de voir que les connaissances actuelles et les prédictions des spécialistes démontrent une tendance croissante aux menaces informatiques des systèmes connectés. On parle d’objets connectés car aujourd’hui tout peut être informatisé : photocopieurs et téléphones bien entendu, mais également un réfrigérateur, une chaise, un panneau d’affichage, un interrupteur, etc…

Les menaces technologiques prennent de l’ampleur : perfectionnement des intrusions logicielles par des vers informatiques, ou la contamination d’un système en utilisant ses connectiques physiques. Les composants d’un système de bâtiment intelligent GTB sont tous vulnérables, car tous interconnectés. L’actualité a montré que certains pirates ciblaient spécifiquement ces composants, afin d’en prendre le contrôle à distance.

En conclusion, ces observations et la compréhension des bonnes pratiques indiquent clairement que la précipitation de mise sur le marché ne permet pas de prendre en compte les bases de sécurité.

De plus, les systèmes informatiques d’entreprise et les bâtiments intelligents sont tous reliés à Internet. Ainsi accessibles depuis l’autre bout du monde, ils constituent un environnement de test en situation réelle pour les cybercriminels. La mondialisation des télécommunications fait qu’aujourd’hui aucun domaine n’est épargné.

Nous venons de faire l’état de l’art du bâtiment dans les différentes dimensions techniques, organisationnelles, économiques et humaines. Nous avons également insisté sur l’aspect sécurité, qui est au cœur des systèmes informatiques actuels. Nous allons maintenant nous projeter vers un autre domaine, qui est en train de rejoindre celui du bâtiment intelligent. Il s’agit du machine learning. C’est un domaine actuel de la recherche qui vise à donner aux machines la capacité d’apprendre.

Ce domaine croise forcément celui de l’intelligence artificielle, et il se trouve que le Smart Building est un candidat plus que potentiel pour ce domaine de recherche… C’est l’objet de la section suivante.

L’apprentissage automatique (machine learning)

Introduction

Le futur de la GTB se situe effectivement avec un bâtiment capable d’apprendre de ses usagers et de réagir de manière automatique.

Nous avons évoqué plus haut, dans l’analyse de la composante technique de la GTB, que l’utilisation de services en ligne (en Cloud) permet de profiter dans ce domaine de l’amélioration continue des fonctionnalités d’automatisation. En effet, l’éditeur offrant le service en ligne dispose d’une grande quantité de données provenant de ses différents clients, dont la typologie de gestion du bâtiment peut différer. Cette masse de données permet notamment l’apprentissage intelligent, ou machine learning37.

Pour simplifier, en collectant de la donnée en masse (Big Data38) et en les traitant avec des algorithmes spécifiques (Data Mining39), les machines sont aptes à isoler certains comportements identifiables. Par exemple, un système de GTB peut apprendre des habitudes de ses résidents : supposons qu’un employé règle par défaut la température de son bureau à 22°C, mais qu’il ait tendance à augmenter de 1°C quand la température ressentie (liée au vent et à l’humidité) descend de 2°C, on peut imaginer que le système va pouvoir anticiper ce comportement, car il a constaté dans ses précédentes données des éléments statistiques identifiables.

Les données de la GTB entrent pleinement dans le champ d’application de ces outils. Mais pour comprendre le fonctionnement du machine learning, une étude de son fonctionnement est nécessaire. Ce sera l’objet de la section suivante.

Fonctionnement du machine learning

L’apprentissage automatique vise à donner aux ordinateurs la capacité de comprendre des situations complexes, à les interpréter, et à réagir automatiquement.

Les premiers systèmes d’intelligence artificielle se basaient sur le principe que l’on peut programmer à l’avance le comportement d’un système. Les premiers algorithmes fonctionnaient dans un environnement fini et connu, à l’image d’un échiquier (ELIZA, IBM, Arthur Samuel, 1952). On se rendit compte rapidement que programmer l’ensemble des situations possibles était d’une difficulté exponentielle, et ne pouvait donc s’appliquer qu’à des situations bien précises. Fin des années 50 les premiers réseaux neuronaux (système de calcul parallèle conçu comme nos neurones) ont commencé à émerger (Cornell Aeronautical Laboratory, Frank Rosenblatt, 1957).

Dans les années 1990, une nouvelle conception de l’intelligence artificielle a émergé : l’approche probabiliste. On laisse cette fois la machine dégager elle-même des éléments identifiables dans les données à partir d’exemples fournis par un humain. Ces technologies se sont améliorées dans les années 2000, parallèlement à l’accroissement des performances des ordinateurs.

Ce type d’intelligence est bien représenté par l’application Google™ Traduction. Elle se base sur des travaux de recherche de traduction automatique statistique (Université de Californie du Sud, Franz-Josef Och, 2003). Le principe : au lieu d’apprendre à un logiciel à traduire, la machine va consulter des milliers de traductions déjà réalisées par des humains. Elle va se constituer une base de traduction qui va s’améliorer avec le nombre de traductions humaines analysées.

Il existe toujours une phase où on va entrainer la machine à reconnaitre des informations, avant de mettre en œuvre le système. Cela fonctionne de la manière suivante :

Processus de fonctionnement d’un système d’apprentissage automatique

La phase d’entrainement (training) consiste à alimenter le système avec des données réelles ou simulées. Cette étape va constituer et enrichir un modèle statistique. C’est ce dernier qui est utilisé pour la prise de décision. Ensuite on va comparer ces résultats avec des données de test, déjà traitées par l’homme ou par un autre moyen fiable. Cette comparaison avec une référence va permettre de déterminer une marge d’erreur (ou incertitude), et de qualifier le modèle statistique.

Il faut noter que tous les algorithmes d’apprentissage automatique (voir Pattern Classification, 2001) produisent en sortie un taux de probabilité statistique, c’est-à-dire un pourcentage qu’une situation reconnaissable soit détectée. On cherche donc à avoir la marge d’erreur la plus réduite.

L’encyclopédie Wikipédia, dans son article sur le Machine Learning (App15) classe les différents algorithmes selon le mode d’apprentissage qu’ils emploient. Voici un rapide résumé :

Les algorithmes supervisés
Le problème est connu, on peut identifier des caractéristiques pour le reconnaitre. On alimente la machine avec des étiquettes, c’est-à-dire des exemples déjà catégorisés. Exemple : en fonction de points communs détectés avec les symptômes d'autres patients connus, le système peut catégoriser de nouveaux patients aux vues de leurs analyses médicales en risque estimé (probabilité) de développer telle ou telle maladie.
Les algorithmes non-supervisés
Le problème n’est pas connu à l’avance, on laisse la machine trouver des relations entre les informations (homogénéité, singularités, etc.), puis un humain va en faire l’interprétation. Exemple : Pour un épidémiologiste qui voudrait dans un ensemble de victimes de cancer du foie tenter de faire émerger des hypothèses explicatives, l'ordinateur pourrait différencier différents groupes, que l'épidémiologiste chercherait ensuite à associer à divers facteurs explicatifs (origines géographiques, génétiques, habitudes de consommation, etc.)
Les algorithmes semi-supervisés
On parle d’algorithmes semi et partiellement supervisés quand le problème est partiellement connu, et donc les données de test partiellement étiquetées.
Les algorithmes par transfert
L’apprentissage par transfert peut être vu comme la capacité d’un système à reconnaître et appliquer des connaissances et des compétences, apprises à partir de tâches antérieures, sur de nouvelles tâches ou domaines partageant des similitudes. Le problème doit donc avoir des similarités avec une situation déjà étudiée. Exemple : appliquer ce qui a été appris d’une étude du cancer du foie sur une étude du cancer du pancréas.
Les algorithmes par renforcement
On désigne ici les algorithmes qui prennent en entrée la réponse du système à leurs actions (boucle fermée). Ainsi, en fonction d’un stimulus positif ou négatif, l’algorithme va se renforcer et apprendre non pas seulement des nouvelles données qui lui arrivent, mais également d’actions antérieures. Exemple : après avoir envoyé une commande de mise en veille à un appareil, on vérifie qu’il ne soit pas rallumé derrière par une autre demande. Vérifier cet indicateur permet de juger la prise de décision initiale.

Aujourd’hui en 2015, le niveau de maturité de ces algorithmes a grandement évolué. Il existe des cartographies décisionnelles qui permettent d’appliquer le bon algorithme en fonction de la situation rencontrée, des données possédées et des objectifs désirés (voir annexe).

Ainsi donc, si on dispose d’une grande quantité de données, on peut mettre en place de l’apprentissage automatique. On peut reprendre l’exemple du fournisseur de solution de GTB externalisée, qui dispose des modèles de consommation de ses nombreux clients. Il faut ensuite tout un processus et des interactions entre personnes et données pour en extraire du sens :

Processus d’apprentissage automatique (avec renforcement)

La donnée provient initialement de toute activité (base de données client, opérations de production, portillon de sécurité ou encore du système de GTB). Ces données sont collectées dans une base de données centrale, sur une infrastructure de traitement parallèle (cluster de machines). Des experts en données, aiguillés par les besoins des clients, vont préparer des lots de données qui vont servir ensuite d’échantillon. Les machines vont découper puis traiter les données avec des algorithmes spécifiques. Des mathématiciens et des experts métiers sont impliqués pour combiner et configurer les traitements successifs, permettant de dégager un modèle statistique.

Ce modèle est ensuite utilisé par le système automatique pour prendre ses décisions. Si on reprend le cadre de la GTB, c’est le système centralisé (BMS) qui est alimenté par ce modèle statistique. Le système va prendre ensuite des décisions, qu’il fera valider par un opérateur humain. C’est une phase d’entrainement qui va permettre d’aligner les décisions de la machine sur celles prises par l’homme. Au bout d’un certain temps, après avoir appris de ses erreurs et de ses succès, la machine devient quasiment autonome dans ses prises de décision.

On peut illustrer ces différents niveaux de capacité d’automatisme dans la prise de décision :

Niveaux des capacités d’automatisme des systèmes de prise de décision

On peut constater que l’augmentation de la maturité du modèle statistique entraine une hausse des capacités d’automatisme, en fonction du temps et de la qualité des données traitées par le système d’apprentissage. On obtient plusieurs niveaux de prise de décision, avec au final un système capable de prendre ses décisions en autonomie, et qui n’offrirait à l’humain que la possibilité d’annuler ou de modifier la consigne.

Les entreprises et les particuliers recherchent tous de la simplicité et de l’ergonomie dans la manière où ils accèdent aux services qu’ils se sont offerts. Ils demandent également de plus en plus que le système soit capable de prédire leurs besoins, et d’anticiper les demandes. On constate aussi cela dans la GTB, dont nous allons nous occuper plus spécifiquement maintenant.

Appliqué au bâtiment intelligent

Dans le cas d’une Gestion Technique Centralisée (GTC), on utilise principalement des algorithmes semi-supervisés par renforcement40. Dans un bâtiment intelligent, les différentes données proviennent de l’ensemble des capteurs de grandeurs physiques (température, pression, humidité, etc.). Ces données sont brutes, elles sont ensuite traitées une 1ère fois pour leur donner une forme intelligible (la température descend, le volet est ouvert, telle porte est ouverte, etc.).

Ces données fournies à un algorithme d’apprentissage, celui-ci va pouvoir identifier des analogies (les portes sont fermées le soir, les PC sont mis en veille le weekend, les résidents convergent tous vers la même salle le midi, etc.), ou bien des singularités (personne n’entre dans telle pièce sauf untel et untel, toutes les personnes dans cette pièce font partie de tel sous-groupe de travail).

Ensuite un opérateur humain va pouvoir faire une lecture de ces données et expliquer à la machine comment interpréter ce comportement (les salariés convergent vers la cantine le midi pour aller manger, cette salle dispose de restrictions d’accès donc une intrusion sans permission est suspecte, etc.).

Un bâtiment intelligent peut en apprendre beaucoup des habitudes de ses usagers. Voici un inventaire non exhaustif des renseignements qui peuvent être appris d’un système de GTB :

Données traitées Apprentissage possible
Productions en temps réel des panneaux solaires Modèle de production
Temps de consommation des appareils Taux d’utilisation des appareils, impact sur la durée de vie de l’équipement
Consommation moyenne en eau (par exemple) Utilisation anormale (robinet oublié ouvert)
Périphériques connectés au réseau sans-fil Taux d’occupation moyen, modèle d’utilisation de la bande passante
Actions sur les interrupteurs physiques Habitudes des usagers pour l’utilisation de tel appareil, temps moyen d’utilisation
Contrôle des présences et des accès Période de présence et d’absence des résidents.
Période de présence et d’absence des résidents, localisation des résidents Horaires de travail, temps de transport moyen, heure d’arrivée le soir, heure de départ le matin
Heure d’arrivée le soir, heure de départ le matin, consommation d’eau Meilleure horaire pour préchauffer une pièce, ou le ballon d’eau chaude, etc.
Contrôle des présences et des accès Modèle d’utilisation des pièces

Exemples de données fusionnées en rapport avec l’apprentissage possible par une machine

Facteurs de pertinence et d’efficacité, vulnérabilités potentielles

Dans une étude sur la prise de décision par ordinateur41 il est indiqué que la qualité globale d’un système intelligent est conditionnée par la pertinence de ses prises de décision dans le temps. Ainsi, il est important de prendre en compte les différents facteurs qui sont liés à la pertinence.

  • Nombre d'exemples de référence : plus il y en a, plus l’algorithme est pertinent mais plus les besoins en ressource mémoire sont importants. A l’inverse, moins il y en a, plus l'analyse est difficile et risque de présenter une marge d’incertitude.
  • Nombre et qualité des attributs : plus des données sont catégorisées, plus elles permettent de voir les choses abstraites à partir de choses concrètes. Par exemple un niveau de menace peut être déterminé à partir de faits tangibles.

  • Le « Bruit » : le nombre et la « localisation » des valeurs douteuses (erreurs potentielles, valeurs aberrantes…) ou naturellement non-conformes à la distribution générale des points de référence impacteront sur la qualité de l'analyse.

Pour illustrer ce propos, le schéma ci-dessous représente l’affinement d’un modèle de consommation du chauffage dans un local. Les nombreux points de références contiennent du bruit (noise) c’est-à-dire des valeurs incohérentes qui ne doivent pas être prise en compte.

Approximation de la tendance d’utilisation du chauffage durant une journée de travail
Source : Demystifying machine learning techniques in forecasting, Shiv Kunderu, 2013

A droite la donnée est brute, on isole le bruit. Au milieu on a tenté d’appliquer des approches statistiques élémentaires. A droite le mécanisme de machine learning a affiné le modèle.

Cette parenthèse technique a pour but de faire comprendre que même si le mécanisme de machine learning peut dégager des données collectées de précieux renseignements, ce système fonctionne intrinsèquement avec des approximations. Cette information est à apporter à toute personne impliquée dans la mise en place d’un système intelligent, notamment de GTB.

Paradoxalement, ce sont les systèmes externalisés qui peuvent se permettre ce type d’amélioration. Mais pour fonctionner, elle nécessite de faire sortir les données de l’organisation.

Synthèse

Nous venons de voir que la prise de décision automatique, intimement liée au concept d’intelligence artificielle, est un élément clé d’un système de GTB. Ces technologies sont améliorées par la grande quantité de données qui peut être récoltée par la mutualisation d’un service de BMS à plusieurs entreprises.

En utilisant des mécanismes de machine learning, un fournisseur de service de BMS est capable d’améliorer la qualité de ses services. Dans le cas de la GTB, on utilise principalement des algorithmes semi-supervisés par renforcement, qui vont déduire après un temps d’entrainement des modèles de consommation et de production.

La machine peut ainsi progresser dans ses prises de décision. Au début simplement observateur, elle va commencer à prendre des hypothèses, proposer ses décisions à un opérateur humain, pour ensuite être à même de réaliser seule ses actions. La machine pourra même ensuite anticiper le moment de réaliser l’action, afin de préparer ou prévenir de ses futures décisions.

Quand on opte pour un système de GTB externalisée as-a-service (dans le Cloud), il est important de bien prendre en compte que la machine base toutes ses décisions sur des modèles mathématiques qui ne donnent qu’une approximation statistique. Ils sont souvent extremement fiables, mais ont intrinséquement des possibilités de générer des erreurs.

Les systèmes automatiques ont toujours un degré de fiaibilité important après des années de test et de retour d’expérience. Ce fut le cas notamment pour le pilotage automatique des avions. Dans le cas de la GTB automatisée, il y a encore peu de références bibliographiques.

Synthèse de l’état de l’art

Nous venons de faire l’état de l’art du sujet suivant différents axes : TOHE, et également d’un point de vue de la Sécurité informatique. Nous avons dans un premier temps constaté que le domaine de la domotique et de la GTB a énormément évolué ces dernières années, parallèlement au développement des nouvelles technologies de l’information (NTIC).

Des systèmes clé-en-main existent et sont déployés par des intégrateurs aussi bien au sein des domiciles individuels que dans les entreprises. C’est un marché qui est promis à une forte croissance. Les enjeux économiques sont élevés et nous avons vu que les acteurs se pressent pour se faire une place sur ce marché. Pour les entreprises, c’est la recherche d’économie d’énergie qui sembler motiver le plus les projets de GTB.

Nous avons également vu lors de cette étude que la domotique est intimement liée à des enjeux de société de grande ampleur, comme l’assistance aux personnes à forte dépendance (personnes âgées, handicapées ou malades). La multi-connectivité des sources de consommation (ménages, entreprises, etc.) avec les sources de production électriques (centrales, panneaux solaires, etc.) permet d’espérer l’optimisation des consommations énergétiques à l’échelle globale d’un pays.

Pour l’organisation d’une entreprise, nous avons constaté que l’intégration d’un système de GTB dans un SI existant pouvait présenter des risques. En effet, les projets d’intégration de GTB sont souvent faits en parallèle d’une multitude d’autres projets demandés par les métiers. Il a plusieurs facteurs de risques : comme ne pas déterminer d’objectifs forts en terme de sécurité ; Ou bien de négliger les questions comme « qui va faire quoi » une fois le système déployé. Ou bien encore de ne pas allouer suffisamment de ressources à ce type de projet.

Ensuite, l’analyse technique des SI de GTB nous a permis de dégager le fonctionnement général de ces technologies. Nous avons constaté que l’entreprise doit arbitrer entre des besoins rationnels (moyens financiers, niveau de sécurité voulu, niveau d’externalisation possible), et des désidératas en terme de fonctionnalité ou d’ouverture de son système de GTB.

Nous avons ensuite discuté du fonctionnement des systèmes de GTB externalisés dans le Cloud et proposés as-a-service. Ces systèmes imposent de faire sortir les données du bâtiment par internet pour qu’elles soient stockées sur l’infrastructure d’un prestataire. D’un côté le prestataire va pouvoir faire évoluer la qualité de son service grâce aux données engrangées et aux mécanismes de machine learning. L’entreprise va également rationnaliser la gestion technique de son bâtiment, en simplifiant cette tâche à la gestion d’une interface Web. Mais d’un autre côté il est évidemment toujours difficile de faire sortir des données qui en disent tant sur les habitudes des utilisateurs. Mais également, on peut s’interroger sur les risques induits par le fait de donner aux machines une part d’automatisme toujours plus élevée…

Etude terrain

Méthodologie

L’objet de mon analyse terrain a été de valider et d’actualiser mon état de l’art avec des données opérationnelles et concrètes issues des entreprises.

Dans un premier temps, j’ai réalisé l’analyse technique de trois solutions existantes sur le marché de la GTB. Ces cas concrets de déploiement de solution proviennent de mes recherches sur Internet. Cette étude va nous permettre de mesurer l’écart entre les bonnes pratiques de la littérature, et les solutions techniques actuelles.

Dans un second temps, je suis allé chercher le témoignage de plusieurs experts dans le domaine de l’informatique et de la sécurité. Ces interviews répondent aux axes que j’ai suivis pour concevoir l’état de l’art de cette thèse.

  • Dans un premier temps, j’ai eu l’opportunité de rencontrer un Responsable Infrastructure dans une DSI actuellement impliquée dans un projet de GTB. Le but étant de développer les axes techniques et organisationnels, et de vérifier si les hypothèses de mon cadre de réflexion étaient cohérentes par rapport à son projet.
  • Ensuite, j’ai pu échanger avec un Responsable de la Sécurité des Systèmes d’Information (RSSI) qui a pu me fournir un éclairage intéressant sur l’axe de la sécurité, et sur les bonnes pratiques à reprendre dans cette thèse.

Cette analyse terrain a donc pour but de valider ou invalider les hypothèses initiales de ce travail.

Ainsi, la première partie de l’étude terrain consiste en une étude technique des solutions de GTB actuelles. C’est l’objet de la section suivante.

Analyse des solutions techniques de GTB sur le marché

Attention, ce paragraphe possède une densité technique relativement forte. Il est destiné à des personnes disposant déjà de compétences en informatique d’entreprise. Sa lecture peut être facultative, une synthèse se trouvant à la fin.

Le système d’information de la Gestion Technique du Bâtiment (GTB) est peu différent au niveau de son infrastructure d’un réseau local traditionnel. Il s’appuie essentiellement sur les standards TCP/IP et HTTP. Ce sont les protocoles de communication entre machine, qui sont utilisés pour Internet et l’affichage des pages Web. Ces protocoles sont très bien connus des informaticiens, qui en maitrisent la configuration. L’utilisation de standards permet donc une intégration simplifiée dans un SI existant.

Dans le cas d’un système de GTB, les différents traitements effectués sur les données peuvent être résumés par le tableau ci-dessous.

Type de systèmes Enjeux Technologie ancienne Technologie récente
Acquisition Recueillir les informations sur l’environnement par des capteurs physiques. Luxmètre, capteur de Proximité thermomètre, hydromètre… Accéléromètre, gyroscope, capteurs miniaturisés, nanotechnologies
Identification Reconnaître chaque objet de façon unique et recueillir les données stockées au niveau de l’objet. Codes barre, solutions RFID simples, URI, coordonnées GPS Solutions RFID complexes, Onde acoustique de surface, puces optiques, ADN
Connexion Faire communiquer les systèmes entre eux. Câbles, radio, … Bluetooth, Communication en champ proche (NFC), Wi-Fi, Zigbee ...
Intégration Assembler les systèmes pour que les données soient transmises d’une couche à l’autre. Middlewares (couche logicielle faisant communiquer plusieurs composants) Analyse décisionnelle des systèmes complexes
Traitement des données Stocker et analyser les données pour lancer des actions ou pour aider à la prise de décisions. Base de données, tableur, progiciel de gestion intégré (ERP), Gestion de la relation client (CRM)… Entrepôt de données 3D, Web sémantique…

Technologies de l’IdO (IOT) détaillés par composants systèmes
Source : Wikipédia, article Internet des Objets, le 15/07/15

Ces nouvelles technologies sont intégrées dans les solutions de GTB actuelles, comme nous allons le voir par la suite. Il est important de se rappeler que les bonnes pratiques en l’état de l’art en informatique préconisent de prendre un certain temps avant de déployer de nouvelles technologiques. En effet, une solution récente est souvent mal connue à ses débuts, et il faut un certain temps avant que des recommandations apparaissent sur la manière de la configurer au mieux pour la sécurité. Et une première version possède souvent des défauts de jeunesses.

Pour se faire une idée du déploiement en condition opérationnelle de ces systèmes, nous allons étudier les solutions des éditeurs TRIDIUM et VYKON, à travers une architecture proposée par un intégrateur. La cible est une entreprise de type PME.

Voici le schéma d’architecture :

Exemple d'architecture Tridium
Source : Syntegra Consulting, intégrateur de solutions Tridium

On remarque que la couche de transport du réseau local (Ethernet TCP/IP), à laquelle sont connectés les ordinateurs et serveurs de la société ainsi que les copieurs et téléphones, est également utilisée pour faire remonter deux flux issus de la vidéosurveillance, et du contrôle des accès (badgeuses numériques).

Les autres équipements de la GTB (climatisation, détecteurs de fumés, système d’éclairage, etc.) sont transportés sur une couche physique séparée, à l’aide de protocoles Open Source. La passerelle entre les deux réseaux se fait via un équipement spécial appelé iBMS, qui apporte la plus-value du système de ces constructeurs : c’est un composant physique central qui coordonne l’ensemble du système, en récupérant les données des capteurs, en les enregistrant dans sa base de données, et en les rendant disponibles pour les applications de GTC.

L’analyse critique de cette architecture amène à s’interroger sur la résistance de ce système face à une panne d’équipement ou au dysfonctionnement d’un composant. En effet, la bonne pratique en informatique est de doubler (redonder) chaque appareil, et d’automatiser le bon fonctionnement en cas de défaillance d’un des composant. Ce système, qui centralise en un emplacement les données provenant des capteurs, pourrait représenter un point critique de sécurité (SPOF42) s’il n’était pas suffisamment protégé.

Etudions maintenant l’intégration d’un système IBMS Symmetre. Il s’agit d’un produit dédié aux grosses industries, qui est basée sur un service « Cloud » c’est-à-dire accessible depuis Internet et hébergé chez l’éditeur.

Voici le schéma d’architecture :

Exemple d’architecture IBMS

Faisons l’analyse de cette architecture. Comme dans l’exemple précédent, les différentes fonctions sont découplées : la gestion de la température, la surveillance des accès et la gestion de l’énergie par exemple sont sur des sous-systèmes différents. Ensuite, des équipements spécifiques (appliances43) font converger les flux vers le réseau TCP/IP.

Les données sont acheminées vers un serveur hébergeant la solution logicielle de l’EMS (Energy Management System), qui contient notamment une base de données. Elles sont ensuite traitées pour rendre différents services.

On trouve des services internes qui utilisent ces données : pour la salle de contrôle, l’accueil du bâtiment, et le poste de sécurité. Les données sont également montées dans le cloud pour les services externes. On retrouve notamment un accès en mode Web et un serveur d’application, qui donnent notamment accès à la gestion analytique : recueil de statistique, mise en perspective et affichage sous forme de données intelligibles (graphiques, indicateurs). Les données deviennent lisible pour les décideurs, et permettent la levée d’alertes, ou encore la définition de réactions programmées.

On remarquera que cette architecture permet notamment l’accès depuis l’extérieur du bâtiment. L’accès aux services depuis l’extérieur offre des gains fonctionnels, notamment pour la télémaintenance. Il a été préféré une sortie des données vers un hébergement dans le Cloud, plutôt que de permettre la connexion de l’extérieur vers les serveurs de l’entreprise.

Dans un cas de figure, on fait sortir la donnée vers un hébergement tiers, elles sont ensuite disponibles sur Internet pour l’utilisateur. Dans l’autre, il existe une route pour se connecter au sein du réseau local de la structure, et avoir accès à au serveur interne contenant la donnée. Ce serveur est souvent placé dans une DMZ (ou Zone Démilitarisée), c’est-à-dire une zone du réseau accessible depuis l’extérieur. Il n’y a pas de tiers dans cette seconde option.

L’accès aux données depuis l’extérieur apporte dans tous les cas des risques. Quand une partie des données sont externalisées on multiplie les canaux d’acheminement des données et on fait assurer le stockage par un tiers de confiance44, ce qui introduit justement un problème de confiance vis-à-vis du prestataire. Dans le cas d’un accès au réseau de l’entreprise depuis l’extérieur, on expose un composant connecté au réseau local à des sources extérieures, augmentant de fait les possibilités d’intrusion virtuelles.

Enfin, nous allons étudier une dernière infrastructure technique. Il s’agit d’une solution DOGATE.

Exemple d’architecture DoGate

Nous allons tirer rapidement deux observations de cette architecture :

Premièrement, le BMS (représenté par le gros boîtier noir) centralise l’ensemble des sous-systèmes de GTB, comme dans les exemples précédents. On constate également qu’un deuxième boîtier « de secours » peut être intégré à l’ensemble, ce qui pourrait résoudre les problèmes de panne. Le constructeur sur son site internet donne quelques détails en plus : le système serait entièrement redondant, et donc dit de « haute disponibilité ».

Ensuite, cette solution est conçue pour intégrer un large panel de protocoles de communication pour les équipements (en bas à droite du schéma). On constate donc que l’éditeur ne tente pas d’imposer un socle technologique commun, mais s’adapte plutôt aux différentes technologies existantes.

Synthèse

L’analyse technique de ces différentes architectures apporte un éclairage sur les technologies actuellement déployées dans les systèmes de GTB. Toutes ces architectures permettent de venir se greffer sur un Système d’Information existant. Les différents capteurs et les actionneurs sont également toujours sur des technologies de communication différentes du réseau classique câblé ou du Wifi.

Le système de GTB possède toujours un cœur central, le BMS. A l’heure actuelle, les solutions se basent toutes sur le paradigme maitre/esclave : le BMS agrège les données et exécute les traitements. Les autres composants ne possèdent aucune intelligence. Nous sommes donc encore très éloignés des systèmes intelligents auto-apprenants que nous avons évoqués dans l’état de l’art.

On constate qu’une multitude de technologies coexistent dans cette partie du réseau. En sécurité, on peut considérer que l’accroissement du nombre de technologies différentes peut être une source de risque (difficultés à maintenir ces systèmes, multiples mise à jour à prévoir, dépréciation d’une technologie au profit d’une autre concurrente, etc…) En effet, ces infrastructures cherchent d’avantage à être compatibles avec un maximum d’équipements plutôt que d’assurer l’intégrité de l’ensemble.

Interviews

Afin de mesurer la pertinence des informations que j’ai pu recenser dans mon état de l’art, je suis allé rencontrer des professionnels en entreprise qui m’ont permis d’éclairer les différentes sections de mon étude avec des visions opérationnelles et pragmatiques.

Ce chapitre est donc composé des différentes interviews que j’ai mené.

Responsable Infrastructure, Habitat Toulouse

En commençant l’état de l’art, je voulais absolument interviewer quelqu’un qui soit en charge actuellement d’un projet de GTB. C’est dans ce cadre que j’ai pu rencontrer le responsable de l’infrastructure au sein de la DSI du groupe Habitat Toulouse.

Habitat Toulouse envisage actuellement de déménager son siège social dans un nouveau bâtiment neuf au cœur de la métropole Toulousaine. La société, qui voit ses prérogatives s’élargir suite à la fusion des Grandes Régions administratives, doit se repositionner vers une image plus haut-de-gamme sur le marché des bailleurs sociaux. Le projet d’un bâtiment intelligent et écoresponsable serait l’occasion de mettre en avant le savoir-faire et l’expertise d’Habitat Toulouse dans ce domaine. L’entreprise cherche à renouvelle son image, à séduire ses investisseurs et ses clients.

Ce projet vise bien entendu à réduire les consommations énergétiques. Il est prévu une production photovoltaïque sur le toit du bâtiment, et un monitoring analytique de toutes les consommations. Ce dernier point est le plus important pour l’entreprise : mettre en place une métrologie, c’est-à-dire des indicateurs clés (KPI) à partir des statistiques remontées par les capteurs. Des indicateurs personnels (remonter à chaque salarié ses consommations personnelles) et collectifs (quel service a le moins consommé).

Le projet de GTB a été intégré par la direction au projet plus global de déménagement des locaux. Un groupe de travail a été organisé afin de produire une expression de besoin, à destination de prestataires externes. L’expression de besoin émis par l’entreprise n’incluais pas de retour sur investissement (ROI) au niveau financier. Les attentes sont essentiellement fonctionnelles, l’entreprise compte bien réduire sa facture d’électricité grâce à sa production interne.

Ce responsable infrastructure donne point de vue qui est celui de la DSI, et plus particulièrement de la production. Ce sont ces équipes qui maintiennent le système en place, et qui répondent aux demandes des utilisateurs. Le projet est arrivé très rapidement aux équipes de la DSI, qui n’ont pas réellement anticipé cette intégration : les équipes de la DSI ont eu très peu de temps pour monter en compétences sur les sujets techniques. Par contre, elles ont quand même adoptées une position sécuritaire vis-à-vis du réseau de la GTB : ses flux de données sont isolés des autres flux d’informations, bien qu’il ne s’agisse pas d’une séparation physique des réseaux.

Responsable Sécurité du Système d’Information, CITYA Immobilier

Ensuite, je souhaitais m’informer sur les aspects de sécurité d’un système d’information « traditionnel », c’est-à-dire non spécialisé en GTB. Pour cela, je suis allé rencontrer le Responsable de la Sécurité du Système d’Information du groupe CITYA IMMOBILIER (gestionnaire immobilier, 3ème administrateur de biens en France). Son rôle au sein de cette organisation est de garantir la sécurité et l’intégrité de tous les actifs informatiques de la société.

J’ai cherché initialement à déterminer le périmètre d’action de cette personne, et d’obtenir des informations sur les menaces informatiques actuelles, ainsi que les réponses apportées face à ses risques. Au final, j’ai abordé la GTB d’un point de vue sécurité en lui demandant d’évaluer les risques qui pouvaient peser sur ce genre de système.

Ses conclusions sont cohérentes par rapport à la littérature : les systèmes de GTC peuvent accroitre la surface d’action des actes de malveillance informatique, et peuvent générer des risques supplémentaires si leur intégration dans le SI n’est pas faite en conformité avec les règles de sécurité.

Le pire scénario évoqué est celui dans le cas où […] la gestion des accès est intégrée à la GTC, l’exploitation d’une faille de sécurité pourrait permettre un accès physique, en maitrisant complètement les dispositifs de sécurité existants. Les pirates vont également chercher à attaquer [les sources d’alimentations] électriques […].

Je lui ai donc demandé quelles étaient pour lui les précautions à prendre si on imaginait un cadre commun de réflexion sur les vulnérabilités des systèmes de GTB. D’un côté, il existe des immanquables qui doivent impérativement être présents dans l’analyse, comme la séparation des différents réseaux (physique ou logique) ou encore l’intégration de composants homogènes. Néanmoins, ses connaissances en gestion des risques l’amènent plutôt à considérer qu’un cadre général n’existe pas en pratique. Ceci étant principalement la cause du niveau très hétérogène des solutions de domotiques proposées, et la diversité des infrastructures déployées.

Je lui ai enfin demandé où en étaient les réflexions dans ce domaine dans les clubs de sécurité comme le CLUSIF en France. D’après lui, ce sont des discutions qui sont déjà engagées, mais le manque de retour d’expérience fait aujourd’hui défaut pour proposer un cadre de réponse adapté en terme de sécurité.

Synthèse et Analyse

Le benchmark que nous venons de faire nous a permis de confronter la littérature avec la réalité terrain. Sur certains points, les références bibliographiques sont cohérentes par rapport aux pratiques réelles. Néanmoins, sur d’autres nous pouvons observer des divergences. Nous allons étudier les différents points un à un.

Réponse aux hypothèses

De la maitrise des risques techniques

Le premier point que nous avons abordé dans le benchmark concernait les architectures techniques. Les exemples étudiés dans l’analyse, et le cas pratique fourni dans les interviews, permettent de constater que toutes les bonnes pratiques IT ne sont pas appliquées dans les systèmes de GTB.

Les technologies sont très hétérogènes, la séparation physique des réseaux n’est pas toujours utilisée, il y a souvent un pont entre le réseau des objets connectés (capteurs, actionneurs, écrans, etc.) et le réseau des ordinateurs de l’entreprise. De plus, toutes les solutions que nous avons étudié ne disposent pas de possibilités de redondance du point central (le BMS), il est alors un élément critique du système.

Tous ces éléments incitent à penser que les solutions actuelles souffrent encore de quelques défauts de jeunesse. Les acteurs cherchent avant tout à interconnecter les systèmes, pas toujours à en assurer l’intégrité technique.

On a également constaté dans les interviews que le projet de GTB ne semble pas toujours bien initié. En effet, les solutions de GTB vont souvent de pair avec les bâtiments basse consommation (BBC) et la production d’énergie (éolienne, solaire). C’est un changement majeur pour l’entreprise : elle a désormais la possibilité de réduire ses dépenses énergétiques, en plus de l’économie. C’est donc souvent ce point qui est le plus développé dans les appels d’offre et les cahiers des charges qui y répondent. Ainsi, ce n’est donc pas toujours la DSI qui commandite ces projets.

Or du point de vue de la DSI, l’ampleur du chantier n’est pas toujours bien considérée, d’un point de vue technique, mais également concernant la sécurité. En effet, les bonnes pratiques voudraient que les politiques de sécurité (PSSI45) incluent également le SI de GTB, ce que nous n’avons pas retrouvé dans le benchmark. Les DSI ne sont pas toujours préparées à ces changements.

Il faut également bien prendre en compte que les acteurs actuels des NTIC orientent de plus en plus leurs offres vers le Cloud. Depuis qu’ils savent valoriser de grandes quantités de données (Big Data) tous les acteurs poussent littéralement toutes les données de leurs clients dans des infrastructures externalisées. C’est une tendance tellement généralisée qu’il est possible que dans quelques années, il sera difficile d’acquérir une solution car elles seront toutes sur un modèle de location. Une fois qu’on a externalisé ses données, il est très difficile de revenir en arrière…

Ainsi donc, mon hypothèse initiale qui voulait que « si les objectifs de sécurité ne sont pas définis avec rigueur, la GTB pourrait entrainer un accroissement des risques technologiques sur le Système d’Information de l’entreprise » semble être cohérente vis-à-vis des relevés terrains.

Quant aux systèmes évolués de BMS qui impliqueraient du machine learninge et de l’intelligence artificielle, la bibliographie semblait indiquer que les technologies actuelles pouvaient parfaitement s’appliquer. Néanmoins, on ne remarque pas encore leur présence dans les solutions techniques actuelles. Tous les systèmes étudiés offrent des solutions d’automatisation avancées, mais aucune n’évoque l’apprentissage automatique. C’est donc toujours un domaine étudié dans la recherche et développement, mais pas encore exploité en production.

Du retour sur investissement

Sur le plan des enjeux économiques, nous avons effectivement constaté que l’argument de l’économie d’énergie est le plus utilisé pour mettre en avant les systèmes de domotique ou de GTB. Poussés par la réglementation (et l’anticipation des nouvelles réglementations), les projets de GTB visent avant tout la maitrise énergétique. Ce constat n’est pas surprenant car c’est sur ce point que le retour sur investissement46 est le plus mesurable. En effet, un système performant de gestion d’énergie va permettre :

  • De détecter les consommations indésirées et y remédier,
  • De piloter les modes de mise en veille des différents équipements,
  • D’optimiser le stockage de l’énergie produite (par exemple recharger des véhicules électriques quand la production des panneaux solaire dépasse les consommations),
  • Et potentiellement d’optimiser son abonnement fournisseur, grâce au suivi détaillé de ses consommations.

Dans la réalité, les entreprises font souvent le choix de devenir producteur d’énergie quand elles souhaitent mettre en place des systèmes de régulation de celles-ci. Le mode de production le plus fréquent est le photovoltaïque, car les panneaux solaires s’adaptent bien aux bâtiments et n’impliquent pas d’autorisations particulières. Ces installations nécessitent d’ailleurs systématiquement un système de gestion de la production, qu’il est tentant de coupler avec le stockage et la consommation. L’entreprise y était incitée jusqu’à présent par des crédits d’impôts47 spécifiques, mais elle dispose toujours d’un taux de TVA réduit à 10% et d’exonérations d’impôts. Bien entendu, c’est sur la réduction effective de sa facture d’électricité que l’entreprise pourra le mieux calculer le retour sur investissement.

Le bâtiment va agir sur le chauffage, la ventilation, l’éclairage et l’ouverture/fermeture des volets/stores, afin de gérer les apports naturels d’énergie en fonction de l’enveloppe thermique du bâtiment, et d’optimiser les consommations énergétiques. Le bâtiment intelligent est donc souvent réduit à la vision d’un bâtiment à haute efficacité énergétique, intégrant dans la gestion intelligente du bâtiment les équipements consommateurs, les équipements producteurs et les équipements de stockage de l’électricité. Dans toute démarche d’amélioration continue, on commence par mesurer l’état initial. Les nombreuses métriques issues du système de GTB permettent de réaliser cette mesure initiale, et d’engager par la suite des projets d’amélioration.

L’entreprise va également pouvoir évaluer globalement le gain financier apporté par la maintenance préventive. Les entreprises trouvent communément dans ce mode de maintenance des gains importants, proportionnels aux coûts des équipements concernés48. Néanmoins il ne faut pas oublier qu’augmenter le nombre de composants électroniques dans le système va entrainer mécaniquement une hausse du besoin en maintenance.

L’entreprise va surtout y trouver des gains fonctionnels, par la simplification de la gestion technique. Premièrement, le système de GTB va permettre de gérer à distance les équipements du bâtiment, de les piloter plus facilement en regroupant et en déclenchant plusieurs opérations en une seule et même commande.

Ensuite, en disposant d’un haut niveau d’information concernant la gestion du bâtiment. Par exemple, en étant notifié automatiquement qu’un technicien de maintenance a programmé une intervention sur le site tel jour, et notifié quand il a terminé la remise en service.

De plus, un système automatique va fiabiliser la gestion du bâtiment. Par exemple, en décidant d’une politique d’économie d’énergie. Si un employé oublie d’éteindre les lumières le soir avant de partir, le bâtiment sait que l’éclairage doit être coupé à minuit par exemple. Si les volets électriques doivent être ouverts en cas de vent violent, on peut être certain que le bâtiment ne va pas oublier de le faire. Un projet de de GTB permet donc également de formaliser les règles d’usage du bâtiment.

On peut donc résumer en disant que les éléments permettant de déterminer un ROI sont relativement nombreux. Les indicateurs les plus factuels se situent certainement autour de l’économie des dépenses énergétiques, de la rationalisation des frais de structure, et de la maintenance corrective.

Ensuite, l’entreprise va y trouver des gains fonctionnels importants. Le fait d’avoir un haut niveau d’information (indicateurs, graphiques, etc.) va déjà faciliter la prise de décision concernant la gestion du bâtiment. De plus, la gestion peut être plus simple, et libérer plus de temps pour les équipes structure. Elle peut également être plus fiable comme nous l’avons vu plus haut.

Ajoutons pour finir que la prise en compte de l’économie durable dans les préoccupations de l’entreprise lui apporte également un gain d’image, auprès de ses collaborateurs mais également dans sa communication publique.

Mon hypothèse initiale, qui impliquait que le calcul du ROI soit difficile, semble relativement valide. Ce calcul est possible. Il comporte néanmoins un certain degré d’incertitude, car la majorité des avantages d’un système de GTB sont fonctionnels. De plus le calcul d’un ROI est toujours une tâche relativement compliquée, nous avons ainsi vu dans l’exemple cité dans les interviews que ce calcul n’est parfois tout simplement pas fait.

De la maitrise organisationnelle

Si on compare la littérature et l’exemple pratique, on constate que les aspects organisationnels qu’implique la GTB ne sont pas toujours définis dans les projets. Nous avons évoqué plus haut que la complexité technique de ce type de projet implique un niveau d’attention important de la part de la DSI. Mais nous avons également constaté que les projets de GTB ont un impact fort sur l’organisationnel de toute l’entreprise. Ainsi donc la définition du « qui fait quoi » de manière formalisée dans une matrice RACI49 par exemple n’est pas systématique en réalité.

Dans leurs argumentaires commerciaux, les éditeurs de solutions promettent un bâtiment quasi autonome et donc, moins de charge humaine pour en assurer la gestion. On peut interpréter cela comme une réduction de la responsabilité de l’entreprise vis-à-vis de la gestion de ses bâtiments. Néanmoins, ce point est évoqué de manière récurrente dans la littérature : l’entreprise ne doit pas imaginer que son système de GTB va faire disparaitre la nécessité de s’en occuper.

J’avais basé comme hypothèse initiale que la GTB ne doit pas être vue comme une solution parfaite aux problèmes de gestion du bâtiment. Bien qu’elle rationnalise une partie de cette gestion, il ne faut pas considérer que ce travail ne va plus impliquer les acteurs humains de l’organisation.

A la vue du benchmark en entreprise, ce point d’attention peut être maintenu en l’état. On constate que l’entreprise est concentrée sur les gains financiers et fonctionnels qu’apportent le système, et que les perturbations dans son organisation ne sont que rarement évoqués. Dans le domaine de la sécurité, il ne faut pas imaginer qu’un système est sécurisé dès lors qu’un dispositif de contrôle (Ex : pare-feu) a été mis en place. Le parallèle avec la GTB peut être fait.

Encore pour faire l’analogie avec la sécurité, la majorité des menaces et des vulnérabilités sont provoquées par des interventions humaines (négligence, malveillance), il est donc important de prendre en compte l’aspect organisationnel lors d’un déploiement de projet de GTB. Cet argument est repris dans le cadre de recommandation que je développe au paragraphe suivant.

Recommandations

Ce travail de thèse m’a permis de dresser un panorama de la problématique de maîtrise des systèmes de GTB, en balayant ses aspects financiers, techniques, organisationnels, humains et vis-à-vis de la sécurité. Mon benchmark m’a apporté des exemples concrets, et m’a permis de vérifier mes hypothèses.

A ce stade, mes connaissances théoriques dans le sujet ont bien progressées, mais mon étude terrain mériterait un approfondissement, notamment en collectant d’avantage de récits de personnes impliquées dans des projets de GTB. Néanmoins, cette étude terrain apporte un éclairage intéressant, et il m’est possible aujourd’hui de dégager des recommandations générales applicables dans le cadre d’un projet de GTB.

Premièrement, le point le plus critique à mon sens est de définir pourquoi le projet de GTB est initié : Quels sont ses objectifs ? Nous avons constaté que les entreprises ont un choix très large d’objectifs dans ce genre de projet (économie d’énergie, intégration de la production d’énergie, avantages fonctionnels, etc.), ainsi il est important de bien s’interroger sur la finalité du projet. De fait, si elle n’est pas définie en termes d’objectifs, la GTB pourrait être une réponse partielle aux problèmes rencontrés par les entreprises.

Je recommande donc aux organisations d’impliquer l’ensemble des futurs utilisateurs, afin de faire une expression de besoin complète. C’est l’occasion de se poser les bonnes questions concernant les usages du bâtiment, et de poser les objectifs de ce projet. La pierre angulaire étant de bien définir en interne la matrice des responsabilités (RACI).

De plus, je recommande clairement aux entreprises qui voudraient déployer de nouveaux équipements de GTB de se faire accompagner par un expert en sécurité, et d’inclure impérativement ces composants et ces processus dans le Plan de Sécurité du Système d’Information (PSSI). L’actualité le montre, les entreprises sont des cibles privilégiées, et les risques très importants. Ne pas négliger l’aspect technique est primordial.

La méthodologie que je propose implique de prendre en compte les éléments suivants :

  • Le nombre et la variété des sous-systèmes inclus dans le SI,
  • La qualité de la solution de BMS, en fonction de la durée du retour d’expérience possible sur la technologie (les premières versions sont rarement parfaites),
  • La qualité de l’intégrateur de la solution (réputation, et degré de spécialisation),
  • Le niveau de fonctionnalités attendu,
  • Le degré d’ouverture du dispositif (nombre d’utilisateurs),
  • Et le degré d’automatisme du système.

Ces éléments sont des facteurs à prendre en compte dans le cadre d’une étude de management des risques. Ils vont permettre de détailler avec les décideurs du niveau attendu de qualité pour le projet, et de déterminer un niveau de criticité du système dans le cadre d’une étude. Ce sont des éléments qui vont alimenter la définition du contexte de l’étude50 des risques.

Pour terminer sur l’aspect technique, bien que cette remarque comporte un caractère très évident, il faut absolument tenir compte des bonnes pratiques lors de la conception technique de l’infrastructure. On citera le fait de séparer le réseau des objets du réseau où sont connectés les utilisateurs, de sécuriser ces réseaux par des équipements dédiés (pare-feu), et de bien définir la politique de droits d’accès.

Egalement, l’organisation doit être très attentive à l’externalisation de ses données et à la délégation de ses responsabilités. Cette réflexion sur l’externalisation doit de toute manière être une considération importante au sein de la DSI. Mais il faut prendre en compte le fait que les données de GTB ont une valeur importante, et bien s’interroger sur l’acceptabilité de voir ces données fuiter.

Dans le cas d’une externalisation, l’organisation doit impérativement sécuriser les contrats de services qu’elle valide auprès de ses sous-traitants. Notamment, un point à aborder absolument est celui de la réversibilité51.

Enfin, l’organisation ne doit pas imaginer que la mise en place d’un système de GTB est un achèvement. Les possibilités de ces systèmes en gestion de la production et en optimisation des consommations vont probablement entrainer par la suite d’autres projets plus structurels, par exemple concernant les habitudes de consommation. Egalement, une GTB ne sonne pas la fin des investissements concernant la gestion du bâtiment. Par exemple, même si ces systèmes vont permettre d’améliorer la maintenance préventive, l’organisation ne doit pas imaginer se séparer immédiatement de ses compétences en maintenance curatives.

Il faut également bien prendre en compte le fait que dans le cas de la sous-traitance, le prestataire va chercher à standardiser au maximum son offre de service pour ses différents clients, au risque de ne pas toujours prendre en compte les spécificités de certaines organisations.

Concernant le dernier point évoqué dans l’état de l’art (les algorithmes d’apprentissage automatique) le benchmark a révélé que peu de solutions existaient à ce jour. Ma recommandation est assez pragmatique dans ce domaine : comme à chaque nouvelle technologie, il faut un certain temps et plusieurs versions pour arriver à un système stable et performant.

L’organisation devrait dans ce domaine s’imposer d’attendre encore quelques années que ces systèmes se perfectionnent, si elle ne veut pas être beta testeur52 d’une solution mise sur le marché trop tôt par des acteurs trop pressés de pénétrer le marché.

Conclusion et perspectives

En conclusion de cette étude, il apparait que le sujet de la GTB a de nombreuses ramifications et qu’il est déclinable dans un grand nombre de dimensions. Les enjeux liés aux bâtiments intelligents sont de taille (économique, écologique, de société) et on constate que les systèmes de GTB apportent des moyens techniques qui pourraient permettre d’y répondre.

On constate une nette accélération dans ce domaine ces dernières années, essentiellement poussée par les considérations d’économie énergétique. Néanmoins, les organisations on intérêt à être prudentes lors de la définition de leurs projets de GTB, comme nous l’avons vu dans les recommandations.

Le futur de la GTB est certainement l’automatisation complète par des algorithmes d’apprentissage automatique. A mon sens cela soulève la question de la place de l’humain au cœur de ces systèmes entièrement automatisés.

En effet, les entreprises cherchent aujourd’hui de plus en plus à se séparer de toutes les activités qui ne sont pas dans leur cœur de métier. C’est l’application du principe de spécialisation. Mais à force de vouloir externaliser l’ensemble des fonctions support (services Structure, Maintenance, Support aux utilisateurs, Ressources Humaines, etc.), l’organisation diminue son capital humain en réduisant la diversité des profils qui la compose.

Il ne faut pas oublier que l’homme dépasse largement la machine sur le domaine de la polyvalence. Dans le domaine de l’adaptabilité et de l’ingéniosité, l’humain reste grand vainqueur face aux ordinateurs.

Une machine peut anticiper la durée de vie d’une ampoule, et prévoir à l’avance son remplacement. Mais rien n’empêchera le hasard de faire que cette ampoule grille spontanément bien plus tôt que prévus. Quel sera alors le temps d’intervention du prestataire pour changer une ampoule, comparé au temps nécessaire pour rassembler une ampoule neuve et un tabouret ?

Bibliographie

(CRE), Commission de Régulation de l'Energie. 2014. De la maison communicante au bâtiment intelligent. 2014.

Apprentissage automatique. Wikipédia. [En ligne] [Citation : 02 11 2015.] link

Barreno, Marco, et al. 2006. Can machine learning be secure? Berkeley : University of California, 2006. ISBN:1-59593-272-0.

CLUSIF. 2015. Panorama de la Cybercriminalité, Année 2014. 2015. CLUSIF.

Evolution technique de la menace. BOURGEOIS, Philippe. 2015. Expert Sécurité au Cert : s.n., 2015.

Group, Boston Computing. 2013. The value of our digital identity. 2013.

Immotic And Energy Supply Contracting. Chiang, Gambi et BSRIA. 2013. 2013.

Koo, Wei Lin et Tracy Van Hoy, P.E. 2001. Determining the Economic Value of Preventive Maintenance. s.l. : Johns Lang LaSalle, 2001.

Larab, A., Martineau, P. et Gaucher, P. 2003. Synthèse sur la sécurité des réseaux domotiques orientés Gestion Technique du Bâtiment. les nouvelles technologies dans la cité. Rennes : s.n., 2003.

Le, Ky. 2008. Gestion optimale des consommations d'énergie dans les bâtiments. grenoble : Institut National Polytechnique de Grenoble - INPG, 2008. tel-00301368.

Malone, T.W. et Crowston, K. 1994. The interdisciplinary study of coordination. ACM Computing Surveys. Vol. 26 N°1 p. 87-119 : s.n., 1994.

Market, Zpryme Smart Grid. 2014. Report: Smart Grid Market Could Double in Four Years. [En ligne] 2014. [Citation : 02 Novembre 2015.] link

Pattern Classification. R.O. Duda, P.E. Hart, and D.G. Stork. 2001. New York : John Wiley & Sons, 2001. 0-471-05669-3.

2010. Security threats Survey. [En ligne] 2010. link

  1. Source : De la maison communicante au bâtiment intelligent, Commission de Régulation de l’Energie, 2014
  2. NTIC : Nouvelles technologies de l’information
  3. Asservissement : en automatique, c’est le fait de contrôler en temps réel le fonctionnement d’un appareil pour qu’il suive une consigne.
  4. Institute of Electrical and Electronics Engineers, qui a spécifié par exemple le Wifi ou le Zigbee
  5. Source : Deuxième Assemblée mondiale sur le vieillissement des Nations Unies, Madrid, 8-12 avril 2002
  6. Source : World Population Prospects, The 2014 Revision. Organisation des Nations Unies.
  7. Source : Insee, Eurostat, enquête ECMO 2012
  8. Source : Ministère de l’Écologie, du Développement durable, des Transports et du Logement, 2015
  9. Voir l’article Wikipédia Crise financière mondiale débutant en 2007
  10. Source : La consommation des entreprises, 8 mars 2013, Ministère de l’écologie, du développement durable et de l’énergie
  11. Mise en place du Bilan Carbone obligatoire (GES) pour les entreprises par exemple.
  12. Source : Energy Supply Contracting, Gambi Chiang, BSRIA, 2013
  13. BBC, Bâtiment basse consommation, désigne un bâtiment pour lequel la consommation énergétique nécessitée pour le chauffer et le climatiser est notoirement diminuée par rapport à des habitations standards. (Wikipédia)
  14. Xerfi est un institut d’études économiques privé, spécialisé dans les analyses sur les secteurs et les entreprises.
  15. Total Cost of Ownership, TCO ou coût total de possession en Français.
  16. IMES : Installation et Mise En Service.
  17. Publication InfoDSI dans le bulletin du 16 mai 2013, d’après un article de ITR News du 16 mai 2013.
  18. VoIP : Voice Over IP concerne le transport de la voix (téléphonie) sur un réseau informatique (IP).
  19. Vulnérabilités des systèmes téléphoniques (TDM et VoIP), Octobre 2014, publication du CLUSIF.
  20. Un schéma directeur informatique est un document de synthèse établi par la DSI et validé par la DG de l'organisation. Pour un horizon déterminé, le document décrit de manière concrète comment l'informatique va être déployée pour répondre aux objectifs fixés et fournir les services attendus. (Wikipédia)
  21. Hunting and Harvesting in a Digital Word : The 2013 CIO Agenda, 2013, publication Gartner.
  22. COTS : Composant pris sur étagère (commercial off-the-shelf ) est une expression utilisée dans le jargon électronique et logiciel pour désigner un composant fabriqué en série et non pour un projet en particulier. (Wikipédia)
  23. Un VPN (virtual private network) permet d'accéder à des ordinateurs distants comme si l'on était connecté au réseau local. (Wikipédia)
  24. BMS : Building Management System
  25. Dans un article de juin 2013 sur son site ciscocanadafr.wordpress.com, vu le 17/05/2015
  26. Bitcoin : désigne un système de paiement à travers le réseau Internet. Le minage de bitcoin consiste à exécuter des calculs qui servent au système, et qui sont rétribués.
  27. Spamming : le fait d’envoyer des spams, c’est-à-dire des messages indésirables souvent publicitaires.
  28. Botnet : plusieurs ordinateurs interconnectés et disponibles pour réaliser une tâche donnée.
  29. Source : (Larab, et al., 2003)
  30. Wikipédia, https://fr.wikipedia.org/wiki/Stuxnet le 16/09/2015
  31. Source : Security Threats Survey, Forrester Consulting (2010)
  32. Source : Club de la sécurité de l'information français, Panorama de la Cybercriminalité, Année 2014 (CLUSIF, 2015)
  33. L’attribution est le fait de pouvoir associer une attaque avec une personne physique ou morale à son origine.
  34. Universal Serial Bus est un connecteur à connecter des périphériques informatiques à un ordinateur. (Wikipédia)
  35. Le RJ45 est le nom usuel du connecteur utilisé couramment pour les connexions Ethernet.
  36. Voir note N° 43.
  37. Machine learning : ou apprentissage automatique, champ d'étude de l'intelligence artificielle permettant à une machine d'évoluer par un processus systématique et autonome, sans programmation préalable. (Wikipédia)
  38. Big Data : désignent des ensembles de données qui deviennent tellement volumineux qu'ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l'information. (Wikipédia)
  39. Data Mining : ensemble d'algorithmes issus de disciplines scientifiques diverses (les statistiques, l'intelligence artificielle ou l'informatique), pour construire des modèles à partir des données, c'est-à-dire trouver des structures intéressantes ou des motifs répétés pour en extraire un maximum de connaissances.
  40. Source : Gestion optimale des consommations d'énergie dans les bâtiments (Le, 2008)
  41. The interdisciplinary study of coordination (Malone, et al., 1994)
  42. Un point unique de défaillance (Single Point of Failure ou SPOF en anglais) est un point d'un système informatique dont le reste du système est dépendant et dont une panne entraîne l'arrêt complet du système. (Wikipédia)
  43. Une appliance en informatique, est un produit, matériel et logiciel, qui permet de répondre à un besoin par une solution clé en main. (Wikipédia)
  44. Tiers de confiance : tiers pouvant corrompre la sécurité d’un système.
  45. La politique de sécurité des systèmes d'information (PSSI) est un plan d'actions pour maintenir un niveau de sécurité.
  46. Ou ROI en anglais, Return Of Investment
  47. La loi de finances pour 2014 a supprimé l’éligibilité des équipements photovoltaïques au crédit d’impôt.
  48. Voir l’article Determining the Economic Value of Preventive Maintenance (Koo, et al., 2001)
  49. RACI : en management, RACI représente une matrice des responsabilités, elle indique les rôles et les responsabilités des intervenants au sein de chaque processus et activité.
  50. Je m’appuie ici sur la méthodologie de gestion des risques EBIOS. Voir l’annexe page 89 pour plus de détails.
  51. La réversibilité en informatique est la possibilité, pour un client ayant sous-traité son exploitation à un infogérant, de récupérer ses données à l'issue d'un contrat1. On parle de clause de réversibilité. (Wikipédia)
  52. Se dit de celui qui teste une version préliminaire d'un logiciel afin d'en déceler les défauts.

About the Author

Ted Marklor est un web designer, un web developer et un génie de la nature. Transcendant le web depuis bientôt 15 ans, Ted est une source d’inspiration et de conseil pour toute une génération de jeunes programmeurs. Le Web 2.0, c’est lui. Dans la vie, il aime aussi faire des avions en papier, s’inventer des pseudonymes et une vie de winner, et surtout parler de lui à la troisième personne. Ça se fait en ce moment sur les blogs…


Ajouter un commentaire

Le code HTML est affiché comme du texte et les adresses web sont automatiquement transformées.