Dossier réalisé par Timur DOGAN La « Feuille de route carbone » de l’Union européenne vise une réduction de 90 % des émissions de CO2 d’ici 2050 par rapport aux niveaux de 19901. Pour atteindre cet objectif, il faut, entre autres mesures, repenser fondamentalement la pratique architecturale. Pour aider architectes et ingénieurs à concevoir des bâtiments neutres en carbone, des simulations de la performance des bâtiments (SPB) informatisées sont nécessaires à l’appui de la prise de décision. Cela justifie un changement de paradigme dans la pratique, passant d’un traitement de la durabilité comme une réflexion après coup à l’intégration profonde de la pensée écologique dans le processus de conception architecturale. Cette approche de conception basée sur des données probantes offre la possibilité de découvrir des synergies environnementales et de créer un nouveau langage architectural qui vise à atteindre et à dépasser la neutralité carbone pour conduire l’humanité vers un avenir plus durable. |
Outils de calcul
Dans les années 1990, les premiers modèles énergétiques de bâtiment (MEB) ont été créés avec des outils tels que TRNSYS, ESP-r, puis EnergyPlus. Ces modèles ont été utilisés pour simuler la demande et la production d’énergie dans les bâtiments. Au même moment est apparu le premier traceur de rayons physique, appelé Radiance, qui pouvait être utilisé pour prédire l’éclairage et les niveaux de rayonnement. Afin de modéliser le mouvement de l’air dans les bâtiments les premiers logiciels commerciaux de CFD (pour computational fluid dynamics, mécanique des fluides numérique) tels que PHOENICS et FLUENT ont été développés. Ces outils de première génération étaient des programmes en ligne de commande qui utilisaient des fichiers texte décrivant les paramètres clés d’un modèle. Les paramètres de ces modèles comprenaient la consommation d’énergie et la production d’énergie renouvelable en fonction des conditions environnementales intérieures, y compris les prévisions de confort thermique et visuel et la disponibilité de la lumière du jour. Les modélisateurs devaient souvent simplifier ces modèles pour s’assurer que les simulations pouvaient être exécutées avec une puissance de calcul alors limitée. Les simplifications étaient souvent de nature géométrique. Par exemple, pour simuler la demande d’énergie d’un bâtiment, on modélisait une seule pièce en forme de boîte, et les résultats étaient extrapolés pour représenter l’ensemble du bâtiment. Pour les modèles de lumière du jour, l’échelle de temps était également réduite à des études ponctuelles axées sur des fourchettes hautes ou basses. Ces simplifications ont nécessité un haut degré d’expertise et d’expérience pour garantir la fiabilité des résultats de simulation.
Ce besoin de connaissances spécialisées a rendu difficile l’intégration des simulations environnementales dans le processus de conception : les budgets ne permettaient pas le recours aux experts-conseils, si ce n’est très tard dans le processus. Ce qui impliquait que les modifications de conception visant à adapter l’architecture en fonction des résultats de la simulation étaient difficiles et coûteuses, parce que les principales décisions concernant le bâtiment avaient déjà été prises.
Ecotect a été l’un des premiers outils spécifiquement conçus pour l’intégration dans le processus de conception. Il combinait des fonctions d’analyse avec un affichage interactif qui présentait les résultats analytiques. Les outils qui ont suivi ce paradigme de modélisation, comme DesignBuilder et IES-VE, fournissaient à l’utilisateur des interfaces utilisateur pour créer la géométrie du bâtiment et définir toutes ses autres propriétés, comme les matériaux, les charges internes et les systèmes de chauffage, ventilation et refroidissement. Ces interfaces utilisateur représentaient un pas important vers l’abaissement de la barrière d’entrée pour de nombreux modélisateurs, mais elles présentaient également des inconvénients tels que les formats de modèles propriétaires et la nécessité de générer la géométrie dans un outil séparé, ce qui générait des frais importants difficiles à justifier au stade de la conception.
Des ordinateurs de plus en plus performants ont rendu possible l’évaluation de modèles de simulation plus complexes et plus détaillés, nécessitant moins d’abstraction. Les chercheurs ont mis au point de nouvelles approches algorithmiques pour accélérer les simulations et permettre des analyses plus holistiques. Pour les simulations de la lumière du jour, le concept des coefficients de lumière du jour2 a permis aux modélisateurs de calculer les données d’éclairement horaire sur de grandes grilles d’analyse. Cette abondance nouvelle de données générées a conduit à l’élaboration de mesures qui facilitaient la lecture et l’interprétation des données. Les niveaux horaires de lumière du jour ont pu être résumés à l’aide de la mesure3 de l’autonomie en lumière du jour ou du score de la lumière du jour résidentielle (figure 1)4. Ces mesures ont rendu les résultats de simulation plus accessibles et ont facilité l’adoption de la modélisation informatique par les utilisateurs non experts.
À partir de l’introduction de Grasshopper, un outil de script visuel intégré dans un logiciel de CAO grand public appelé Rhino 3d, des interfaces utilisateur conviviales et des outils de scripts visuels ont commencé à être combinés. Des logiciels tels que DIVA, pour les simulations de lumière du jour, ou Archsim, pour les MEB, ont émergé, rendant les moteurs de simulation accessibles, au sein de logiciels de conception conviviaux. Le fait de pouvoir concevoir et évaluer dans le même logiciel a facilité l’adoption de la simulation par ordinateur par un public plus large et plus avisé en matière de conception. Beaucoup d’autres logiciels ont suivi, et il existe maintenant une pléthore d’outils de modélisation pour l’analyse environnementale.
Les modélisateurs sont aujourd’hui confrontés à un large éventail d’outils fragmentés qui nécessitent l’utilisation d’outils multiples et spécialisés. Cela peut s’avérer difficile, car c’est au modélisateur qu’il revient de construire un récit cohérent et consistant à partir des divers résultats que produisent ces outils logiciels. En outre, cela limite l’interaction entre des sujets qui, en réalité, sont étroitement liés. Exemple des problèmes engendrés par la fragmentation de l’outil : les MEB et les simulations de lumière du jour, quand les systèmes de vitrage et d’ombrage doivent être orchestrés de manière cohérente. ClimateStudio est un outil de nouvelle génération qui vise à combiner et à consolider toutes les simulations environnementales pertinentes dans un seul progiciel. L’intégration étroite des simulations thermique et de la lumière du jour débouche sur de nouvelles techniques d’analyse qui permettent de cartographier spatialement le confort thermique et visuel pour une évaluation holistique de la conception. La figure 2 montre l’interface utilisateur de ClimateStudio et la cartographie spatiale du confort visuel.
Expansion à l’échelle urbaine
Dans le contexte de l’urbanisation, les concepteurs et les ingénieurs en environnement ont récemment élargi leurs intérêts et leurs efforts à de plus grandes échelles, concevant des logiciels qui peuvent étendre la portée de l’analyse d’un bâtiment à des milliers de bâtiments ainsi que des espaces intérieurs à des espaces extérieurs beaucoup plus grands. Par conséquent, un nouvel ensemble d’outils de planification est en train d’émerger pour aider les concepteurs à améliorer la résilience et la durabilité urbaines. Outre les améliorations au niveau des bâtiments, les solutions au niveau urbain offrent de nouvelles opportunités et de nouveaux défis.
Les MEB urbains et les outils tels que UMI et les algorithmes de mise en grappes de modèles tels que la Shoeboxer5 peuvent être utilisés pour comprendre et améliorer la demande et la résilience énergétiques des zones urbaines nouvelles ou existantes. Les MEB à résolution spatiale peuvent révéler des bâtiments vulnérables et aider à identifier les mesures d’atténuation les plus efficaces pour rendre le parc immobilier résistant à l’épreuve du temps et pour cibler l’élaboration des politiques.
La densification urbaine est souvent liée à une plus grande rentabilité économique et à la durabilité par la préservation des terres et des ressources, la réduction de l’empreinte des transports et le renforcement de la cohésion sociale des différentes collectivités urbaines. Mais elle peut aussi affecter gravement la qualité de l’environnement. C’est particulièrement vrai dans le cas d’une croissance urbaine ad hoc, qui se manifeste dans les quartiers informels, surpeuplés et affectés par le smog, qui empêchent leurs habitants d’avoir accès à l’air frais et à la lumière du jour à l’intérieur et autour des bâtiments. Les outils de modélisation urbaine de la lumière du jour6 peuvent être utilisés pour trouver un compromis entre la disponibilité de la lumière du jour et la densité urbaine. Les chercheurs montrent7 comment les concepteurs peuvent capitaliser sur la relation entre la forme et la performance en utilisant des outils de simulation pour quantifier la valeur d’une bonne conception.
Au-delà , il est possible d’étudier les répercussions des choix d’aménagement urbain sur la ventilation naturelle et le confort extérieur. Le microclimat urbain est fortement influencé par la forme urbaine, la densité, la matérialité ainsi que la quantité d’infrastructures vertes et bleues. En retour, le microclimat a un impact profond sur l’utilisation de l’espace public, sa piétonnisation, la santé publique et la demande énergétique des bâtiments. Des progiciels comme ENVI-MET permettent aux modélisateurs de simuler le microclimat urbain. De nouveaux outils tels que Eddy3D (figure 3) intègrent l’analyse du microclimat dans Rhino3d et Grasshopper, et implémentent des algorithmes qui accélèrent le processus de simulation du microclimat pour permettre son analyse annuelle à une résolution spatiale élevée, au prix d’un effort de calcul raisonnable.
Répondant aux paradigmes de planification modernes qui favorisent les quartiers piétonniers, les nouveaux outils permettent aux urbanistes de comprendre les conséquences des choix de conception concernant la densité de population, le zonage, le réseau de rues et l’attribution des équipements. Il est donc impératif de développer ces nouvelles capacités de modélisation pour faciliter la conception d’habitats urbains sains et durables. C’est le cas d’Urbano.io, qui peut intégrer et traduire des données urbaines en termes de conception à l’aide de simulations de mobilité active, et ainsi évaluer l’accessibilité et l’utilisation des commodités, des rues et des espaces publics (figure 4).
Perspectives
La prochaine génération d’outils élargira encore les capacités de modélisation avec de nouveaux algorithmes, de nouveaux paramètres d’évaluation qui accéléreront les simulations et faciliteront leur intégration dans les processus de conception à cadence rapide. De même, l’amélioration de l’interface utilisateur se poursuivra et réduira encore davantage les obstacles à la réalisation d’analyses de pointe, pour une conception axée sur la performance.
À mesure que seront accessibles de plus en plus de données résultant de mesures et de simulations, il deviendra primordial de développer des outils qui permettent aux modélisateurs de tirer efficacement les conclusions de ces données et des feedbacks sur ces simulations. Un nouveau type d’outils vise à soulager le concepteur en prenant en charge cette partie du travail, à devenir « génératif ». Ces outils « génératifs » se concentrent pour l’heure sur des problèmes de conception spécifiques, avec encore peu de marge de manœuvre. Par exemple, les outils de recherche de forme peuvent générer automatiquement des enveloppes solaires qui modélisent le volume de construction maximal pouvant être construit sans éclipser les bâtiments ou les rues avoisinants ; ils peuvent générer des formes optimales pour des dispositifs d’ombrage statique. Mais pour des problèmes plus complexes et moins bien définis, comme la conception de quartiers entiers, des outils plus avancés sont nécessaires. Une approche consiste à utiliser des méthodes de « machine learning » pour explorer plus systématiquement toutes les variables de conception possible – ce que pourrait appeler un « espace de conception ». Des outils qui permettent de visualiser cet espace sont encore à développer. Ils faciliteront la prise de décision et permettront aux concepteurs d’appréhender des corrélations et des solutions non linéaires et peut-être moins intuitives.
Réagissez à l’article en remplissant le champ ci-dessous :
Vous n'êtes pas identifié. | |||
SE CONNECTER | S'INSCRIRE |
> Questions pro |
Quel avenir pour les concours d’architecture ? 4/6
L’apparente exhaustivité des rendus et leur inadaptation à la spécificité de chaque opération des programmes de concours nuit bien souvent à l… |
Quel avenir pour les concours d’architecture ? 3/6
L’exigence de rendus copieux et d’équipes pléthoriques pousse-t-elle au crime ? Les architectes répondent. |