Eléments simples, formes complexes - Ces algorithmes qui viennent - Entretien avec Klaas de Rycke

Rédigé par Stéphane BERTHIER
Publié le 03/09/2017

Les outils de conception paramétriques permettent d'explorer des combinaisons complexes et de les améliorer sur des lignées de 500 générations.

Dossier réalisé par Stéphane BERTHIER
Dossier publié dans le d'A n°256

Entretien avec Klaas de Rycke, ingénieur-architecte diplômé de l’université de Gand et enseignant à l’ENSA de Versailles. Il dirige l’agence parisienne du bureau d’études allemand Bollinger + Grohmann.  

D’A : Quels sont les changements qu’apportent les outils de conception paramétrique dans un bureau d’études tel que le vôtre ? 

Klaas de Rycke : À dire vrai, les bureaux d’études travaillent depuis toujours dans une logique paramétrique. Pour dimensionner une poutre, il faut l’informer de sa portée, son matériau, sa surcharge, la nature de ses appuis, etc. Ces données sont autant de paramètres qui entrent en jeu pour la définition de cette poutre. La logique paramétrique est une logique causale que les ingénieurs connaissent bien. Ensuite, depuis longtemps, nos logiciels de calcul des structures sont paramétriques puisqu’on informe un modèle avec des données et le programme se charge d’établir la solution optimisée. Ce qui est nouveau et qui a permis un très fort développement des outils paramétriques, c’est l’ergonomie des interfaces graphiques.  

 

Ces outils sont devenus plus faciles à utiliser ? 

Oui, d’une part le paramétrique est devenu visuel. Avec des logiciels comme Karamba 3D ou RhinoVAULT, on peut voir la structure se modifier en fonction des paramètres dont on l’informe. En devenant graphiques, ces logiciels rapprochent la conception morphologique de la conception des structures. D’autre part, l’augmentation continue de la capacité de mémoire des ordinateurs, que l’on connaît bien sous le nom de loi de Moore, permet de rentrer beaucoup plus d’informations et de calculer des modèles beaucoup plus complexes dans des temps de plus en plus courts. Le nombre de paramètres que l’ordinateur peut traiter est devenu très important. Notre travail consiste désormais à coder les algorithmes qui gèrent cette multitude de paramètres simultanément. 

 

Ces outils changent-ils le type de relation que vous entretenez avec les architectes ?

 Ils améliorent certainement le partage de l’invention. Nous ne travaillons plus forcément de manière séquentielle, selon la vieille idée qui voudrait que l’architecte dessine son projet, puis le passe à l’ingénieur qui se chargera de le rendre constructible. Les itérations de travail sont plus riches, par exemple on peut élaborer des règles en commun et les faire évoluer ensemble. Si je prends l’exemple de la piazza Garibaldi à Naples, Dominique Perrault imaginait des arbres irréguliers et aléatoires avec une frondaison continue. Les appuis devaient avoir une forme arborescente mais aléatoire, puis la ramification devait se traduire par une grille tridimensionnelle et irrégulière. Nous avons donc paramétré un modèle numérique de cette grille, d’abord dessinée comme une grille régulière. Ensuite, nous avons travaillé le caractère aléatoire en élaborant un programme selon lequel chaque noeud pouvait bouger en altimétrie selon une suite non récurrente, un peu comme la suite de Fibonacci. Par ailleurs, pour respecter la logique structurelle, nous avons informé le modèle avec nos contraintes mécaniques, notamment sismiques. Avec des contraintes programmatiques aussi, en indiquant par exemple qu’aucun noeud n’avait le droit de descendre sous un certain plafond pour que l’espace soit utilisable et ainsi de suite.


C’est ce que vous appelez des algorithmes génétiques. 

Oui, l’idée est de concevoir en informant un modèle avec des paramètres qui peuvent concerner la géométrie, la statique, etc. On peut imaginer beaucoup plus facilement la conception des formes complexes en générant une multitude de réponses. L’ordinateur n’ayant d’ailleurs pas de standards innés ou culturellement définis, il propose librement une très large variété de solutions, tout en restant dans les contraintes imposées. Cela concerne aussi les données programmatiques de l’architecte. On peut par exemple informer les éléments du programme avec des exigences de dimensions, d’éclairage ou d’interrelations. Ce n’est pas très différent de ce que les architectes faisaient parfois au début d’un concours lorsqu’ils découpaient des volumes en mousse qui représentaient les différents locaux, et qu’ils essayaient ensuite d’assembler entre eux. Sauf qu’à l’époque, la forme des volumes en mousse ne pouvait pas être changée sans recommencer une nouvelle itération laborieuse qui limitait les explorations possibles. Désormais, il suffit de changer un paramètre concernant la proportion des volumes et l’algorithme propose les nouvelles combinaisons possibles. Ainsi, au lieu de créer « à la main » des solutions qui explorent une seule hypothèse à la fois, nous pouvons lancer des explorations beaucoup plus complexes et les améliorer sur des lignées de 500 générations, selon l’équilibre des performances recherchées.

 

L’ordinateur laisse donc des choix possibles ? Il n’impose pas son propre « parti architectural » ?

 Ce qui est incroyable avec ce procédé, c’est qu’on peut très rapidement obtenir des centaines de choix possibles en faisant varier les paramètres. Cela laisse aussi place à la sérendipité, à des découvertes fortuites auxquelles personne n’avait pensé mais qui s’avèrent très intéressantes. Les solutions sont évaluées, par les architectes, par les ingénieurs, et de proche en proche on parvient Ã  optimiser une réponse en ajustant la règle du jeu. On peut voir toutes ces étapes d’optimisation comme une lignée génétique Ã  laquelle on donne peu à peu aux descendants les caractéristiques idéales recherchées. Ces outils libèrent les possibles, mais au début il faut toujours établir la règle du jeu, faire des choix en hiérarchisant les paramètres entre eux, en définissant ce qui est important et ce qui est secondaire. Quand l’ordinateur délivre ses hypothèses, dont il a déjà vérifié la crédibilité technique, il faut encore être capable de choisir entre elles. Cela demande une aptitude au jugement qui ne peut être qu’humaine. 

 

Le continuum numérique de la conception à la fabrication est-il déjà une réalité ?

 Il y a encore des écarts de langage, des transcriptions Ã  faire parce que souvent les robots de l’industrie sont faits pour d’autres objectifs, mais cela s’améliore régulièrement. Cette idée de continuum numérique Ã©largit le rôle de l’ingénieur qui participe Ã  la définition géométrique et morphologique du projet avec l’architecte, jusqu’à la mise en fabrication et aux modalités d’usinage avec les entreprises. Notre projet de bulbes en bois pour la maison Hermès a été élaboré selon cette logique de continuité numérique. Cela marche plutôt bien dans la filière bois. Ce qui est intéressant aussi, c’est que le modèle numérique peut intégrer les paramètres de fabrication dès la conception, par exemple la taille de panneaux de bois, leurs modalités d’assemblage, la proportion de percements possibles, etc. Cela paraît très lourd à gérer pour nos capacités humaines, mais l’ordinateur le fait très bien. Le vieux processus selon lequel l’architecte dessine, l’ingénieur instruit et l’entreprise fabrique est désormais beaucoup plus récursif. 

 

Justement, les entreprises jouent-elles le jeu de ces nouveaux outils ? 

Celles qui jouent le jeu sont celles qui disposent des compétences et des outils numériques de fabrication. Par exemple, la plupart des entreprises de charpente de taille moyenne sont équipées de machines à commandes numériques, à l’origine pour améliorer leur productivité et non pour fabriquer des formes complexes. Elles ont cependant tout à gagner à démontrer leur savoir-faire au travers d’ouvrages complexes. Tout cela est très développé en Allemagne, en Suisse ou en Autriche. On travaille pour faire baisser le coût de l’architecture non standard, c’est-à-dire conçue et construite selon des procédés hors de la série industrielle. Les outils de conception numérique nous aident Ã  optimiser la matière, à faire des structures alvéolaires, etc. L’idée est de pouvoir à terme construire à des coûts acceptables des architectures Ã  chaque fois très spécifiques.

 

Les réglementations en vigueur sont-elles un frein au développement de ces architectures spécifiques ? 

Les normes sont juste un cadre de référence. Elles sont écrites pour empêcher les gens de mal faire, mais parfois elles les empêchent de bien faire. L’effet des DTU est de nous pousser à construire selon des recettes éprouvées depuis vingt ans. C’est un frein à l’innovation. Il y a toujours un effet de retard sur les normes qui tentent de suivre la réalité. Comment permettre un changement rapide des règles et donner place à de l’innovation ? C’est probablement en gardant un cadre réglementaire plus léger et en responsabilisant plus les acteurs de la construction, en revalorisant leurs compétences techniques. Par exemple, comment faire pour que les normes suivent les derniers développements des pièces métalliques imprimées sur des imprimantes 3D ? Cette nouvelle technique ouvre considérablement le champ des possibles, inimaginable il y a encore quelques années. 

 

On observe que ce sont désormais les universités qui sont à la pointe de ces expérimentations architecturales et techniques, (ETH, EPFL, ICD de Stuttgart, etc.). Comment analysez-vous le contexte français ?

 Les écoles d’architecture françaises sont très isolées de l’université, à la différence des pays que vous citez. Elles ont donc moins de moyens car elles ne peuvent pas mutualiser les compétences, les laboratoires de recherches, etc. Ni travailler en équipes pluridisciplinaires. Il y a ici une tradition Ã‰cole des beaux-arts versus École des ponts et chaussées, que l’on retrouve moins dans les autres pays européens. D’un côté, cela a permis historiquement une production théorique peut-être plus riche qu’ailleurs. D’un autre côté, les architectes souffrent peut-être d’un manque de culture constructive et les ingénieurs formés dans les écoles françaises ont moins de culture de design, au sens anglo-saxon du terme. Peut-être que cette plateforme numérique sur laquelle nous travaillons actuellement permettra de mieux relier ces deux professions. 

 

Comment réagissez-vous aux critiques qui considèrent ces recherches comme un nouvel avatar du fétichisme technologique ? 

Je pense que ce que font actuellement les GAFA (Google-Amazon-Facebook-Apple) avec nos données ne relève pas du fétichisme technologique. Ce sont des enjeux importants pour l’avenir. La place de l’humain dans cette révolution préoccupe toutes celles et ceux qui travaillent au quotidien sur le développement de la conception paramétrique. Par exemple, le Design Modeling Symposium est une manifestation biennale qui réunit des architectes, des ingénieurs et des développeurs qui travaillent sur ces questions. Il se tiendra cette année, du 16 au 20 septembre, à l’ENSA de Versailles. Le thème de cette session est Â« Humanizing Digital Reality » et interrogera la part de l’humain dans la modélisation numérique et les moyens de conserver le contrôle de nos actes et de notre environnement. Tous ceux qui s’interrogent sur le sujet y sont les bienvenus.  

[ Klaas de Rycke est ingénieur-architecte diplômé de l’université de Gand et enseignant à l’ENSA de Versailles. Il dirige l’agence parisienne du bureau d’études allemand Bollinger + Grohmann, spécialisé dans les structures et les enveloppes. Régulièrement sollicités pour travailler sur des projets morphologiquement complexes, du Rolex Learning Center des architectes japonais SANAA Ã  la piazza Garibaldi à Naples de Dominique Perrault, les outils de conception paramétrique occupent une place importante dans leur activité. ]


Lisez la suite de cet article dans : N° 256 - Septembre 2017

Abonnez-vous à D'architectures
.

Réagissez à l’article en remplissant le champ ci-dessous :

Vous n'êtes pas identifié.
SE CONNECTER S'INSCRIRE
.

> L'Agenda

Novembre 2024
 LunMarMerJeuVenSamDim
44    01 02 03
4504 05 06 07 08 09 10
4611 12 13 14 15 16 17
4718 19 20 21 22 23 24
4825 26 27 28 29 30  

> Questions pro

Quel avenir pour les concours d’architecture ? 4/6

L’apparente exhaustivité des rendus et leur inadaptation à la spécificité de chaque opération des programmes de concours nuit bien souvent à l…

Quel avenir pour les concours d’architecture ? 3/6

L’exigence de rendus copieux et d’équipes pléthoriques pousse-t-elle au crime ? Les architectes répondent.

Quel avenir pour les concours d’architecture publique 2/5. Rendu, indemnité, délais… qu’en d…