Les outils de conception paramétriques permettent d'explorer des combinaisons complexes et de les améliorer sur des lignées de 500 générations. |
Dossier réalisé par Stéphane BERTHIER Entretien avec Klaas de Rycke,
ingénieur-architecte diplômé de l’université de Gand et enseignant à l’ENSA
de Versailles. Il dirige l’agence parisienne du bureau d’études allemand
Bollinger + Grohmann. |
D’A : Quels
sont les changements qu’apportent les outils de conception paramétrique
dans un bureau d’études tel que le vôtre ?
Klaas de Rycke : À dire vrai, les bureaux d’études travaillent depuis toujours dans une logique paramétrique. Pour dimensionner une poutre, il faut l’informer de sa portée, son matériau, sa surcharge, la nature de ses appuis, etc. Ces données sont autant de paramètres qui entrent en jeu pour la définition de cette poutre. La logique paramétrique est une logique causale que les ingénieurs connaissent bien. Ensuite, depuis longtemps, nos logiciels de calcul des structures sont paramétriques puisqu’on informe un modèle avec des données et le programme se charge d’établir la solution optimisée. Ce qui est nouveau et qui a permis un très fort développement des outils paramétriques, c’est l’ergonomie des interfaces graphiques.
Ces outils
sont devenus plus faciles à utiliser ?
Oui, d’une part le
paramétrique est devenu visuel. Avec des logiciels comme Karamba 3D
ou RhinoVAULT, on peut voir la structure se modifier en fonction des
paramètres dont on l’informe. En devenant graphiques, ces logiciels
rapprochent la conception morphologique de la conception des
structures. D’autre part, l’augmentation continue de la capacité de
mémoire des ordinateurs, que l’on connaît bien sous le nom de loi de Moore,
permet de rentrer beaucoup plus d’informations et de calculer des modèles beaucoup
plus complexes dans des temps de plus en plus courts. Le nombre de paramètres
que l’ordinateur peut traiter est devenu très important. Notre travail consiste
désormais à coder les algorithmes qui gèrent cette multitude de paramètres
simultanément.
Ces outils
changent-ils le type de relation que vous entretenez avec les architectes ?
Ils améliorent certainement le partage de l’invention.
Nous ne travaillons plus forcément de manière séquentielle, selon la vieille
idée qui voudrait que l’architecte dessine son projet, puis le passe à l’ingénieur qui
se chargera de le rendre constructible. Les itérations de travail sont
plus riches, par exemple on peut élaborer des règles en commun et les
faire évoluer ensemble. Si je prends l’exemple de la piazza Garibaldi à Naples,
Dominique Perrault imaginait des arbres irréguliers et aléatoires avec une
frondaison continue. Les appuis devaient avoir une forme arborescente
mais aléatoire, puis la ramification devait se traduire par une grille
tridimensionnelle et irrégulière. Nous avons donc paramétré un modèle
numérique de cette grille, d’abord dessinée comme une grille
régulière. Ensuite, nous avons travaillé le caractère aléatoire en
élaborant un programme selon lequel chaque noeud pouvait bouger en
altimétrie selon une suite non récurrente, un peu comme la suite de Fibonacci.
Par ailleurs, pour respecter la logique structurelle, nous avons informé
le modèle avec nos contraintes mécaniques, notamment sismiques. Avec
des contraintes programmatiques aussi, en indiquant par exemple qu’aucun
noeud n’avait le droit de descendre sous un certain plafond pour que l’espace
soit utilisable et ainsi de suite.
C’est ce que
vous appelez des algorithmes génétiques.
Oui, l’idée est de
concevoir en informant un modèle avec des paramètres qui peuvent concerner
la géométrie, la statique, etc. On peut imaginer beaucoup plus facilement
la conception des formes complexes en générant une multitude de
réponses. L’ordinateur n’ayant d’ailleurs pas de standards innés ou culturellement
définis, il propose librement une très large variété de solutions, tout en restant
dans les contraintes imposées. Cela concerne aussi les données
programmatiques de l’architecte. On peut par exemple informer les
éléments du programme avec des exigences de dimensions, d’éclairage ou d’interrelations.
Ce n’est pas très différent de ce que les architectes faisaient parfois au début
d’un concours lorsqu’ils découpaient des volumes en mousse qui
représentaient les différents locaux, et qu’ils essayaient ensuite d’assembler
entre eux. Sauf qu’à l’époque, la forme des volumes en mousse ne pouvait pas
être changée sans recommencer une nouvelle itération laborieuse qui limitait
les explorations possibles. Désormais, il suffit de changer un
paramètre concernant la proportion des volumes et l’algorithme propose les
nouvelles combinaisons possibles. Ainsi, au lieu de créer « à la main »
des solutions qui explorent une seule hypothèse à la fois, nous
pouvons lancer des explorations beaucoup plus complexes et les améliorer sur
des lignées de 500 générations, selon l’équilibre des performances
recherchées.
L’ordinateur
laisse donc des choix possibles ? Il n’impose pas son propre « parti architectural »
?
Ce qui est incroyable avec ce procédé, c’est qu’on
peut très rapidement obtenir des centaines de choix possibles en faisant
varier les paramètres. Cela laisse aussi place à la sérendipité, Ã
des découvertes fortuites auxquelles personne n’avait pensé mais qui s’avèrent
très intéressantes. Les solutions sont évaluées, par les architectes, par
les ingénieurs, et de proche en proche on parvient à optimiser une
réponse en ajustant la règle du jeu. On peut voir toutes ces étapes d’optimisation
comme une lignée génétique à laquelle on donne peu à peu aux descendants les
caractéristiques idéales recherchées. Ces outils libèrent les possibles,
mais au début il faut toujours établir la règle du jeu, faire des
choix en hiérarchisant les paramètres entre eux, en définissant ce qui est important
et ce qui est secondaire. Quand l’ordinateur délivre ses hypothèses, dont
il a déjà vérifié la crédibilité technique, il faut encore être
capable de choisir entre elles. Cela demande une aptitude au jugement qui
ne peut être qu’humaine.
Le continuum
numérique de la conception à la fabrication est-il déjà une réalité ?
Il y a encore des écarts de langage, des
transcriptions à faire parce que souvent les robots de l’industrie
sont faits pour d’autres objectifs, mais cela s’améliore régulièrement. Cette
idée de continuum numérique élargit le rôle de l’ingénieur qui participe Ã
la définition géométrique et morphologique du projet avec l’architecte,
jusqu’à la mise en fabrication et aux modalités d’usinage avec les
entreprises. Notre projet de bulbes en bois pour la maison Hermès a été
élaboré selon cette logique de continuité numérique. Cela marche plutôt
bien dans la filière bois. Ce qui est intéressant aussi, c’est que le
modèle numérique peut intégrer les paramètres de fabrication dès la
conception, par exemple la taille de panneaux de bois, leurs
modalités d’assemblage, la proportion de percements possibles, etc. Cela
paraît très lourd à gérer pour nos capacités humaines, mais l’ordinateur
le fait très bien. Le vieux processus selon lequel l’architecte dessine, l’ingénieur
instruit et l’entreprise fabrique est désormais beaucoup plus récursif.
Justement,
les entreprises jouent-elles le jeu de ces nouveaux outils ?
Celles qui jouent le jeu
sont celles qui disposent des compétences et des outils numériques de
fabrication. Par exemple, la plupart des entreprises de charpente de
taille moyenne sont équipées de machines à commandes numériques, à l’origine
pour améliorer leur productivité et non pour fabriquer des formes
complexes. Elles ont cependant tout à gagner à démontrer leur savoir-faire au
travers d’ouvrages complexes. Tout cela est très développé en Allemagne,
en Suisse ou en Autriche. On travaille pour faire baisser le coût de
l’architecture non standard, c’est-à -dire conçue et construite selon des procédés
hors de la série industrielle. Les outils de conception numérique nous
aident à optimiser la matière, à faire des structures alvéolaires,
etc. L’idée est de pouvoir à terme construire à des coûts acceptables des
architectures à chaque fois très spécifiques.
Les
réglementations en vigueur sont-elles un frein au développement de ces
architectures spécifiques ?
Les normes sont juste un
cadre de référence. Elles sont écrites pour empêcher les gens de mal
faire, mais parfois elles les empêchent de bien faire. L’effet des DTU est
de nous pousser à construire selon des recettes éprouvées depuis vingt
ans. C’est un frein à l’innovation. Il y a toujours un effet de
retard sur les normes qui tentent de suivre la réalité. Comment permettre un
changement rapide des règles et donner place à de l’innovation ? C’est
probablement en gardant un cadre réglementaire plus léger et en
responsabilisant plus les acteurs de la construction, en revalorisant leurs
compétences techniques. Par exemple, comment faire pour que les normes
suivent les derniers développements des pièces métalliques imprimées
sur des imprimantes 3D ? Cette nouvelle technique ouvre considérablement le
champ des possibles, inimaginable il y a encore quelques années.
On observe
que ce sont désormais les universités qui sont à la pointe de ces
expérimentations architecturales et techniques, (ETH, EPFL, ICD de
Stuttgart, etc.). Comment analysez-vous le contexte français ?
Les écoles d’architecture françaises sont très
isolées de l’université, à la différence des pays que vous citez. Elles
ont donc moins de moyens car elles ne peuvent pas mutualiser les
compétences, les laboratoires de recherches, etc. Ni travailler en équipes pluridisciplinaires.
Il y a ici une tradition École des beaux-arts versus École des ponts et
chaussées, que l’on retrouve moins dans les autres pays européens. D’un
côté, cela a permis historiquement une production théorique peut-être
plus riche qu’ailleurs. D’un autre côté, les architectes souffrent peut-être
d’un manque de culture constructive et les ingénieurs formés dans les
écoles françaises ont moins de culture de design, au sens anglo-saxon
du terme. Peut-être que cette plateforme numérique sur laquelle nous
travaillons actuellement permettra de mieux relier ces deux professions.
Comment
réagissez-vous aux critiques qui considèrent ces recherches comme un
nouvel avatar du fétichisme technologique ?
Je pense que ce que font
actuellement les GAFA (Google-Amazon-Facebook-Apple) avec nos données
ne relève pas du fétichisme technologique. Ce sont des enjeux importants
pour l’avenir. La place de l’humain dans cette révolution préoccupe toutes
celles et ceux qui travaillent au quotidien sur le développement de la
conception paramétrique. Par exemple, le Design Modeling Symposium
est une manifestation biennale qui réunit des architectes, des
ingénieurs et des développeurs qui travaillent sur ces questions. Il se
tiendra cette année, du 16 au 20 septembre, à l’ENSA de Versailles.
Le thème de cette session est « Humanizing Digital Reality » et
interrogera la part de l’humain dans la modélisation numérique et les
moyens de conserver le contrôle de nos actes et de notre environnement. Tous
ceux qui s’interrogent sur le sujet y sont les bienvenus.
[ Klaas de Rycke est
ingénieur-architecte diplômé de l’université de Gand et enseignant à l’ENSA
de Versailles. Il dirige l’agence parisienne du bureau d’études
allemand Bollinger + Grohmann, spécialisé dans les structures et les
enveloppes. Régulièrement sollicités pour travailler sur des projets
morphologiquement complexes, du Rolex Learning Center des architectes
japonais SANAA à la piazza Garibaldi à Naples de Dominique Perrault, les
outils de conception paramétrique occupent une place importante dans leur
activité. ]
Lisez la suite de cet article dans :
N° 256 - Septembre 2017
Réagissez à l’article en remplissant le champ ci-dessous :
Vous n'êtes pas identifié. | |||
SE CONNECTER | S'INSCRIRE |
> Questions pro |
Quel avenir pour les concours d’architecture ? 4/6
L’apparente exhaustivité des rendus et leur inadaptation à la spécificité de chaque opération des programmes de concours nuit bien souvent à l… |
Quel avenir pour les concours d’architecture ? 3/6
L’exigence de rendus copieux et d’équipes pléthoriques pousse-t-elle au crime ? Les architectes répondent. |