La construction elle-même peut être paramétrée, programmée et exécutée grâce au numérique. Le projet Structural Oscillations est monté par un bras articulé robotisé. |
Dossier réalisé par Stéphane BERTHIER Une nouvelle génération de chercheurs, architectes, ingénieurs, mathématiciens, explore les possibilités de construction des architectures dites « non standard » qui ont émergé à la fin du XXe siècle avec l’apparition de l’informatique. Après le formalisme virtuel des premières heures, ces universitaires réinterrogent cette production à partir de ses conditions de réalisation. Ils inventent un registre architectural original, tectonique, finalement très différent des « blobs » initiaux. |
Leurs travaux s’appuient désormais sur la constitution d’un continuum numérique, de la conception à la fabrication robotique, qui transforme profondément le caractère séquentiel de l’acte de bâtir, fondé classiquement sur les interventions successives de l’architecte, de l’ingénieur puis de l’entreprise. Ces recherches, menées par des équipes pluridisciplinaires, émergent sous la forme d’objets expérimentaux de laboratoire, de prototypes et d’édifices démonstrateurs de ces nouvelles technologies digitales. Elles remettent en question les savoirs, les méthodes et les rôles de l’architecte tels que nous les connaissons.
L’architecture non standard s’oppose à la notion moderne de série, de répétition industrielle et à la standardisation architecturale qui en découle. Elle regroupe les formes complexes et quelconques au sens géométrique du terme. Ses premiers auteurs (Greg Lynn, Asymptote, NOX, etc.) revendiquaient aussi s’inspirer des découvertes de l’analyse mathématique non standard dans les années 1960, sans qu’il soit toujours possible de faire le lien entre cette théorie et l’étrangeté des formes architecturales considérées. En revanche, elles témoignaient d’une fascination évidente pour les formes organiques du vivant, dont l’imitation devenait aisée grâce aux nouveaux outils informatiques. Comme un premier jalon, l’exposition « Architecture non standard » organisée par le Centre Pompidou en 2004 dressait un inventaire détaillé de cette production encore largement théorique. Identifiées initialement sous le nom de « blob » en raison leurs formes molles et fluides, ces architectures ont évolué très sensiblement ces dernières années, sous l’influence des développements du numérique. Les travaux menés sur les conditions de leur constructibilité ont transformé significativement leurs caractéristiques morphologiques et dessinent désormais une architecture non standard 2.0.
LE BUG DES BLOBS
En effet, les premiers blobs furent très vite confrontés à la
difficulté de leur construction. Tout d’abord en raison de leur absence d’échelle,
puisque ces objets pouvaient être soit des cocons individuels, soit des
salles philarmoniques, c’était selon la taille du personnage ajouté Ã
leur représentation. Or nous savons, au moins depuis D’Arcy Thompson1,
que les formes du vivant sont déterminées par leur échelle. Il n’y a pas d’homothétie
dans la nature, simplement parce que lorsqu’un être grandit, ses
dimensions augmentent linéairement tandis que sa surface croît au
carré et son volume, donc sa masse, croît au cube. Ainsi, Gulliver n’est
que 12 fois plus grand que les Lilliputiens, mais il est 1728 fois plus
lourd. Après la question de l’échelle, l’autre écueil résidait dans l’emploi
de systèmes constructifs traditionnels inappropriés à la complexité morphologique
de ces architectures non standard. Les premières tentatives de
discrétisation, c’est-à -dire de décomposition d’une surface complexe en de
plus petits éléments pour qu’ils puissent être fabriqués et manipulés, créaient
des discontinuités importantes qui altéraient la fluidité des formes imaginées.
L’une des deux méthodes les plus communément employées consistait à découper
l’objet en tranches, à la manière des maquettes de topographie. Un travail sur
l’enveloppe devait ensuite lisser la surface pour en restituer la
fluidité. La seconde méthode consistait à décomposer les surfaces courbes
en les triangulant pour coller au plus près de la topologie initiale. Dans la plupart des cas de
figure, des systèmes constructifs conventionnels aux trames resserrées venaient
« faire tenir » ces architectures non standard, sans relation organique ou
cohérente entre la structure et la forme, un peu comme un décor de
théâtre.
REDECOUVERTE DES STRUCTURES
SPATIALES
Une première amélioration a été apportée avec
la redécouverte des structures spatiales. À la différence d’une
structure traditionnelle fondée sur un système de travées
répétitives, plus ou moins espacées, les structures spatiales sont
caractérisées par des surfaces continues dont la géométrie définit
une portance multidirectionnelle qui répartie les déformations grâce à une
meilleure solidarité structurelle. Ainsi des voiles minces en béton de
Dischinger, Freyssinet ou Candela, des structures tridimensionnelles de
Le Ricolais, des dômes géodésiques de Buckminster Fuller ou encore de
la résille de bois de la Halle de Mannheim conçue par Frei Otto en 1976. L’art
de l’ingénieur du XXe siècle est riche d’exemples de ce type, un peu
tombés dans l’oubli à partir des années 1980. Le pavillon de la
Serpentine Gallery de 2005 conçut par Alvaro Siza, Edouardo Souto de Moura
et Cecil Balmond est un exemple intéressant de structure spatiale au
service d’une forme non standard. Les logiques structurelle et morphologique
s’y confondent dans un objet désormais cohérent. Sa projection en plan
dessine une grille rectangulaire déformée comme si elle était élastique.
La forme qui en résulte est décrite par un réseau de poutres croisées
qui définit une surface à double courbure quelconque, mi-coque, mi-tente,
dont la flèche garantit la stabilité. Ces mêmes structures spatiales se
retrouvent aussi dans les recherches d’Achim Menges à la TU de
Stuttgart ou celles d’Yves Weinand à l’EPFL. Ces travaux ont en
commun de discrétiser les surfaces complexes selon un motif ou pattern,
constitué d’éléments simples, identiques dans leur géométrie, mais
dont les dimensions varient pour épouser de proche en proche la topologie de
la surface complexe. Ces éléments simples, constitutifs du motif, peuvent
être plans comme les hexagones et pentagones d’un dôme géodésique
déformé, ou bien tridimensionnels, comme les voussoirs de la voûte de
bois de l’EPFL ou encore décrire des surfaces plissées à la manière des origamis
japonais. Mais cette recherche de cohérence entre forme et structure
n’aurait pas été possible sans le transfert dans le champ de l’architecture d’outils
de conception numérique développés auparavant dans les domaines automobile et
aéronautique. En effet, les structures spatiales du XXe siècle que nous
évoquions ci-avant étaient principalement fondées sur des formes
géométriques régulières, qui pouvaient être dessinées et calculées « à la main
». Elles devaient aussi être construites à partir d’éléments standardisés
répétitifs. Le caractère géométriquement quelconque des formes non
standard rend leur modélisation et leur réalisation extrêmement
laborieuses sans outils numériques. De surcroît, l’informatique donne
aussi la possibilité de maîtriser des figures géométriques telles que les courbes
de Béziers ou les NURBS (Non Uniform Rational B-Spline), très souvent
utilisées pour générer les surfaces gauches, mais qui ne peuvent pas
être décrites par la géométrie descriptive conventionnelle. De la
même manière, les machines à commandes numériques sur lesquelles sont
désormais réalisés ces artefacts singuliers sont assez vieilles.
Elles ont été développées dans l’industrie des années 1970 et instauraient la
notion de plateforme numérique continue, de la conception à la
fabrication. Elles apparaissent aujourd’hui dans le champ de la
construction parce qu’elles deviennent utilisables grâce à l’évolution de
nos outils de conception et pertinentes pour réaliser les usinages
sophistiqués requis par les architectures non standard. Ainsi, le pavillon
de la Serpentine Gallery de Siza, Souto de Moura et Balmond est un réseau de
poutres croisées en lamibois, toutes singulières, qui ont été découpées
sur une fraiseuse numérique à partir de la
nomenclature extraite du modèle digital. Soigneusement numérotées,
elles ont ensuite été assemblées entre elles comme un kit.
CONCEPTION
PARAMETRIQUE ET FABRICATION NUMERIQUE
À un premier niveau de complexité, ces outils de
conception numérique permettent de paramétrer les modèles 3D de telle
sorte que les pièces constitutives de l’objet puissent être exportées
sous forme de nomenclature à destination des outils de fabrication
numérique, telles que les fraiseuses CNC ou les robots. Les liens
paramétrés entre la forme générale et les pièces constitutives offrent la possibilité
de modifier la nomenclature des pièces à fabriquer automatiquement,
lorsque l’architecte modifie la forme générale du modèle 3D. Ces
outils peuvent aussi servir à modifier les sections des pièces en fonction des
efforts qu’elles subissent, dans un certain intervalle de validité, lui
aussi paramétrable. Le fil conducteur de ces recherches est bien la
quête d’une plateforme numérique homogène, depuis les logiciels de
conception jusqu’aux instructions données aux machines numériques, en
passant par les outils de dimensionnement des structures. De la sorte,
une modification apportée à la forme générale se répercute en temps réel
sur toutes les informations techniques nécessaires à la construction,
et réciproquement. Un unique fichier source serait alors capable de
contenir toutes les informations, de la conception à la fabrication.
Plus encore, le process de construction lui-même, c’est-à -dire l’assemblage de
l’édifice, peut désormais être paramétré, programmé, puis exécuté par des
robots comme le montrent les travaux récents de Gramazio et Kohler Ã
l’ETH de Zurich. Il faut souligner que les outils de conception paramétrique
ne sont pas seulement des moyens de réalisation des blobs initiaux de
l’architecture non standard. Il faut plutôt parler d’une rencontre
opportune entre deux domaines, l’architecture non standard d’une part
et les outils de conception numérique d’autre part, qui se valorisent
réciproquement. Ces outils développent depuis quelque temps un langage morphologique
propre qui ne repose plus directement sur l’imitation des formes fluides
du vivant. Leur logique de discrétisation des surfaces gauches conduit Ã
des expressions architecturales singulières faites d’éléments simples
assemblés qui décrivent de manière originale les formes complexes, sans
chercher à masquer leur caractère très construit, mais au contraire en l’affirmant. Ils
intègrent dès le départ l’impossible continuité de la forme à l’échelle
architecturale et l’envisagent donc a priori comme une suite d’éléments
discrétisés. L’avantage théorique qu’offre ce continuum numérique,
outre d’être un langage commun entre tous les acteurs, est celui de l’efficacité économique.
Il est presque égal pour le robot d’usiner cent pièces différentes ou cent
pièces identiques. Il ne nécessite plus les réglages spécifiques ni
les gabarits qu’imposaient les outils industriels lourds du XXe siècle. L’amortissement
devient beaucoup plus rapide et la série peut théoriquement commencer Ã
1. C’est ainsi que Jeremy Rifkin a théorisé La nouvelle société du coût
marginal zéro, c’est-à -dire la fin de l’industrie de masse et de ses
exigences économiques de standardisation. Cette capacité des outils de
fabrication numérique rend économiquement acceptable la réalisation
de pièces toutes légè rement différentes les unes des autres, issues de la
discrétisation des surfaces complexes. Ces machines rendent possible,
notamment avec l’utilisation du bois, des assemblages comme des clavetages,
des tenons-mortaises, des queues d’aronde, etc., et font l’économie des
liaisons mécanosoudés, réputées être les pièces chères d’un devis de
charpente. La tendreté du bois, sa capacité à se travailler facilement
et sa disponibilité le rendent particulièrement adéquat à cette nouvelle
technologie de fabrication digitale. De matériau archaïque au XXe siècle,
il devient le matériau phare de ce début de XXIe siècle.
LES ALGORITHMES
GENETIQUES
À un second niveau de complexité, les outils de
conception paramétrique sont capables de générer eux-mêmes la forme
architecturale. Ces algorithmes dits « génétiques » sont des codes
informatiques qui définissent les critères de la forme et leurs variables,
en fonction des règles ou des contraintes que le concepteur se donne.
Ces critères sont par exemple d’ordre techniques et relatifs à la
statique, la thermique ou l’éclairage, auxquels on assigne des
performances à atteindre ; ils peuvent aussi être d’ordre géométrique,
fonctionnel, morphologique ou esthétique. Ce code informatique est en
outre capable de pondérer ces critères, de les hiérarchiser, voire de les
laisser au choix du hasard. Le programme est alors en mesure de
déterminer la solution optimisée entre toutes celles possibles, comme un point
d’équilibre entre les différents critères de conception, chacun d’entre
eux restant dans son intervalle d’acceptabilité. À l’intuition cultivée
de l’architecte et son « parti architectural » succéderait alors un calcul informatique
d’optimisation entre tous les possibles. La réalité n’est bien entendu pas aussi
tranchée. Les algorithmes génétiques sont pour l’instant des aides à la
conception, des moyens efficaces de trouver rapidement une solution
satisfaisante entre plusieurs contraintes, par exemple entre forme
désirée et statique optimisée, mais aussi dans les processus de
discrétisation des surfaces, en fonction de la taille et de la forme
des éléments selon les contraintes de leur fabrication. D’autre part, c’est
toujours un être humain qui écrit l’algorithme, donc qui établit la
nature des variables et leurs hiérarchies, qui fixe les règles du jeu. Le
projet d’architecture devient alors un modèle numérique dont l’expression morphologique
peut se modifier selon les variables codées dont on l’informe. Ce
modèle contient théoriquement de multiples états possibles et se présente comme
un génotype dont les expressions sont limitées par les intervalles de
validité qu’on lui fixe. Par analogie avec la génétique, l’objet ou l’édifice
qui est issu de ce génotype peut être considéré comme un phénotype, de
la même manière que nous portons en nous un patrimoine génétique complexe contenant
de nombreux possibles, dont seuls certains traits s’expriment dans notre phénotype
personnel, au gré des hasards du brassage chromosomique. Plus largement, et
considérant l’immense tâche de paramétrage que requièrent ces objets
numériques, il faudra sans doute les imaginer comme des « modèles
souples », non standard au sens propre du terme, capable d’amortir le
coût de leur R & D sur plusieurs réalisations, sensiblement
différentes pour de multiples raisons de site, de programme, de
climat, de performances requises, etc. mais tous fondés sur un même
génotype, comme les membres d’une même lignée. Toutefois, si les
critiques initiales relatives à l’absence d’échelle comme à l’inconstructibilité des
architectures non standard sont désormais levées, celles, d’ordre éthique,
qui interrogeaient le bien-fondé d’une démarche perçue comme strictement
technophile et formaliste restent entières et sont peut-être plus
vives encore. Ces développements scientifiques et techniques doivent être
interrogés par les sciences humaines. Comme le fait remarquer
Jean-Claude Bignon, cette continuité numérique de toutes les étapes suppose
un langage commun, qui, comme tout langage, repose d’abord sur une culture commune.
Or les différences de cultures entre tous les acteurs de l’acte de bâtir
sont peut-être un frein à la productivité, mais elles sont aussi un
terreau favorable à la créativité et à l’enrichissement réciproque. Les reconfigurations
profondes que ce nouveau paradigme digital impose, non seulement à l’architecte
mais à tous les métiers de la construction, sont-elles un gage de liberté retrouvée,
une nouvelle Union des Arts et de l’Industrie après un siècle de
standardisation industrielle appauvrissante, ou au contraire, une
nouvelle forme d’aliénation des hommes par de nouvelles machines, toujours
plus sophistiquées ?
Lisez la suite de cet article dans :
N° 256 - Septembre 2017
Réagissez à l’article en remplissant le champ ci-dessous :
Vous n'êtes pas identifié. | |||
SE CONNECTER | S'INSCRIRE |
> Questions pro |
Quel avenir pour les concours d’architecture ? 4/6
L’apparente exhaustivité des rendus et leur inadaptation à la spécificité de chaque opération des programmes de concours nuit bien souvent à l… |
Quel avenir pour les concours d’architecture ? 3/6
L’exigence de rendus copieux et d’équipes pléthoriques pousse-t-elle au crime ? Les architectes répondent. |