Archive d’étiquettes pour : architecture

à la conquête de l’espace

Depuis quelques décennies nous assistons à une colonisation constante des technologies de l’information et de la communication dans presque tous les domaines de l’activité humaine. Une infiltration et une propagation digitale (1) qui s’invitent jusque dans les foyers et bientôt les corps.

Laura Mannelli, Atopia, en collaboration avec Frederick Thomspon et Kanika Langlois. Photo: © Laura Mannelli.

On ne peut plus échapper à une relation homme-machine. Apprivoisés, happés comme aspirés par cet élan, nous en sommes devenus les principaux agents catalyseurs. Face à ce(t) (a)flux digital, séduits par des promesses et des potentialités sans cesse renouvelées, nous adoptons une multitude d’interfaces technologiques avec lesquelles nous entretenons une relation d’interdépendance. Notre environnement physique est devenu perméable à une forme de transmutation digitale.

N’importe qui ou quoi, peut désormais coexister sous forme de digits (2) dans un lieu non situé si ce n’est par l’interface qui permet d’y accéder. De cette nouvelle condition émergent des territoires qui n’avaient jusqu’alors d’existence que dans les romans de science-fiction. L’organisation de l’activité humaine a trouvé un nouveau mentor : le réseau. C’est l’idée d’atopie énoncée par Robert Smithson, un non-lieu privé de centre et de périphérie. Il agit avec le temps comme il agit avec l’espace. Être ici et pourtant ailleurs, c’est l’“hétérotopie” de Michel Foucault, où des vécus virtuels engendrent des persistances et des réminiscences émotives bien réelles (3). C’est l’espace des Réalités Virtuelles.

Défini comme une simulation d’environnements réels ou imaginaires, créé artificiellement par la machine (4), ce nouvel espace, connecté, en réseau, ou non, est qualifié de “virtuel”. Mais l’est-il vraiment ? Aujourd’hui ces projections fascinent ou choquent parce qu’elles ont essentiellement lieu dans un environnement synthétique qui n’est pas naturel. Au-delà de l’ambiguïté générée par l’emploi du terme « virtuel », qui suggère une réalité simulée, ou une quasi-réalité, ou encore, un état en devenir qui préfigure l’état réel, un pré-réel, cette quête existentielle de ce que sont ou prophétisent les Réalités Virtuelles pourraient bien ébranler plus d’une certitude sur notre propre rapport au monde et notre conception du réel. L’infiltration des structures numériques dans nos vies, crée, entre les notions de virtuel et de réel, une dichotomie absurde.

Les Réalités Virtuelles nous (ré)apprennent bien au contraire à considérer notre environnement dans la diversité de ses réalités pour devenir une composante du réel et non des opposés binaires. Une culture des binarismes qui nous est chère et qu’il nous faut aujourd’hui déconstruire. L’un d’eux considère que la vocation d’architecte ne se concrétise que par l’édification de l’objet architectural. L’architecture ne se définirait qu’à travers la notion d’objet. Sans prendre en considération l’impact social, politique, symbolique, ou esthétique que vient « signifier » dans notre environnement un tel acte. L’architecture fonctionne comme « signe ». C’est une des premières technologies de l’information et de la communication.

Comme nous l’explique Claude Baltz, philosophe en sciences de l’information et de la communication, la structure de l’espace est le premier médium d’information. Elle est la première technologie d’information à laquelle tout le reste se connecte. Le message, c’est le médium (5). Mais le médium a changé d’hôte. Et on est en mesure de se demander comme à son époque Victor Hugo le proclamait à propos de l’imprimerie, l’architecture ne sera plus l’art social, l’art collectif, l’art dominant. Le grand poème, le grand édifice, la grande œuvre de l’humanité ne se bâtira plus, elle s’imprimera (6), dans quelle mesure l’avènement des Réalités Virtuelles impacte la discipline ou s’il fait partie de la discipline ?

Haus-Rucker-Co, Environment Transformers, Vienna, 1968. Photo © Haus-Rucker-Co / Gerald Zugmann

Les Réalités Virtuelles ne sont généralement pas encore considérées comme des facteurs clés aptes à générer de nouveaux « paradigmes » en matière de conception architecturale. Pourtant l’architecture a engagé depuis des siècles une conquête de l’espace sans précédent. La science-fiction n’est pas l’unique vecteur des Réalités Virtuelles. Le seul ouvrage intitulé Superarchitecture, le futur de l’architecture des années 1950-1970, par Dominique Rouillard, démontre que Réalités Virtuelles et architecture épousent des idéologies communes et convergent vers un futur dont elles partagent déjà une même sémantique; on est aussi architecte de l’information.

C’est peut-être avoir sous-estimé l’ »attirance du vide » générée par nos architectures qui induit une plasticité du concept d’espace. Comment introduire dans le discours architectural, l’indétermination, l’irréalisation, l’informe ou l’espace négatif. Ne faites pas confiance aux architectes (7), c’est la fin de l’architecte démiurge. Une quête ontologique de la discipline qui atteint son paroxysme avec l’ »architecture radicale » des années 50 et 60 qui rejette une définition de l’architecture dans sa détermination fonctionnelle et constructive.

Pour l’architecte Frederick Kiesler (1890-1965), l’architecture se perd dans une conception trop statique. Sa tentative est de concevoir une « architecture sans fin » qui répondrait au besoin de la psyché. Un espace qui tend à l’indifférenciation. Son travail constitue les prémisses de l’architecture radicale à venir. En 1968, Hans Hollein décrète dans un manifeste qui le rendra célèbre, tout est architecture. Et poussera la provocation jusqu’à proposer une « pilule » psychotrope en guise de projet architectural. Les membres de l’agence Coop Himmelblau prônent une architecture qui n’a pas de plan physique, mais un plan psychique. Les architectes mettent alors au point de véritables « dispositifs de sensations » dont l’analogie avec les casques de Réalités Virtuelles d’aujourd’hui résonne étrangement.

Walter Pichler produit le premier prototype de ce qu’on appellera bientôt le casque environnemental, déjà largement développé par le collectif Haus_Ricker_Co, Coop Himelb(l)au et par Ugo La Pietra (casque audiovisuel). Le collectif Haus_Rucker_Co appelle « transformateur d’environnement » ses différents masques, visières et casques. Leur projet Mind Expander relève d’une « PSY-ARC » : une architecture supposée agir sur le psychisme de l’individu qui y pénètre. C’est un dispositif technique pour l’expansion de l’individualité consciente. Être totalement isolé et en même temps connecté à tout. Le collectif Archigram parle d’ »autoenvironnement » pour désigner des projets qui donnent la capacité de transporter un environnement complet et d’occuper ainsi la terre entière grâce à une technologie portative.

Les Réalités Virtuelles entraîneraient-elles une (r)évolution conceptuelle aussi déroutante que la physique quantique ? Laquelle, moyennant l’hypothèse d’ »espaces intriqués », partage peut-être les mêmes projections. Ce n’est qu’en mettant en commun différents secteurs de compétences que vont se développer les « usages » propres à cette nouvelle condition numérique de nos quotidiens. De ces usages va dépendre l’appropriation des Réalités Virtuelles par la société. Et de la société dépend l’évolution de ces nouveaux paradigmes.

Laura Mannelli
publié dans MCD #82, « Réalités Virtuelles », juillet / septembre 2016

(1) Anglicisme. « Digital » veut dire numérique, qui traite en langage binaire (1,0), par opposition à analogique qui reste physique.

(2) Élément d’information numérique désignant en réalité un simple chiffre.

(3) Frederick Thompson.

(4) https://fr.wikipedia.org/wiki/R%C3%A9alit%C3%A9_virtuelle

(5) Marshall McLuhan

(6) Extrait de Notre-Dame de Paris

(7) Didier Fiuza Faustino

 

Interview de l’architecte Carlo Ratti

Carlo F. Ratti est un architecte, ingénieur, inventeur, professeur et activiste. Il enseigne au Massachusetts Institute of Technology (MIT), aux États-Unis. Il est aussi le fondateur de Carlo Ratti Associati, une agence d’architecture basée à Turin, en Italie, qui se développe rapidement avec des annexes à Boston et Londres. Puisant dans les travaux de recherche de Carlo Ratti’s au Massachusetts Institute of Technology, le bureau Senseable City Lab travaille actuellement sur des projets de design de différentes envergures et sur plusieurs continents.

SkyCall, projet du MIT Senseable City Lab. Photo: D.R.

L’objectif du MIT Senseable City Lab est d’étudier et d’anticiper la manière dont les technologies numériques bouleversent les modes de vie des gens et leurs effets à l’échelle urbaine. Son directeur, Carlo Ratti, a fondé le Senseable City Lab en 2004 au sein du groupe de travail City Design & Development du Department of Urban Studies & Planning en collaboration avec le MIT Media Lab. Ce laboratoire s’est donné pour mission de transformer et d’explorer de manière créative l’interface entre les gens, les technologies et la ville.

Qu’en est-il du flot de travail du MIT Senseable City Lab ? D’où viennent les commandes ? Quels sujets étudiez-vous et quelles sont vos urgences ? Quelles compétences existent au sein de votre équipe et à quel moment/pourquoi décidez-vous de travailler avec des créatifs en externe ?
Une grande variété d’idées circule dans le Senseable City Lab. Notre équipe se compose de plus de 40 personnes, venues du monde entier. Les chercheurs ont chacun des compétences, des histoires personnelles et culturelles singulières. La plupart viennent de l’architecture et du design, mais nous avons aussi des mathématiciens, des économistes, des sociologues et des physiciens. Je pense que la « diversité » est un aspect vital pour tout travail d’équipe. Je m’en rends compte de plus en plus, y compris dans d’autres champs d’activité. Par exemple, les articles les plus cités d’un magazine aussi important que Nature sont souvent écrits par des auteurs issus d’origines différentes.
S’agissant des projets, j’essaie de les construire en fonction des suggestions des chercheurs; il est vital d’être ouvert aux idées de chacun. Ensemble nous identifions les problèmes majeurs auxquels les citoyens doivent se confronter. Nous réfléchissons à la manière de les aborder et nous développons un projet qui présente une solution. Ces dernières années, nous nous sommes intéressés à des sujets comme l’utilisation de l’énergie, les embouteillages, la santé ou l’éducation. Cependant, nous avons aussi développé des technologies susceptibles de contribuer à résoudre différents problèmes d’ordre général et nous les intégrons à l’environnement urbain grâce à la collecte de données et d’informations.

Quelle est l’importance du soutien et de la coopération des investisseurs privés ou du rôle des industries lorsqu’il s’agit de travailler sur un nouveau projet et de le développer ? Recherchez-vous plutôt des industries adaptées à un projet précis ou, au contraire, la spécificité du projet découle-t-elle d’une thématique ou d’une proposition venue de l’industrie ? En quoi les réseaux professionnels du MIT influencent et soutiennent la mise en place d’une synergie positive ?
Il est essentiel de travailler avec des industries et des investisseurs privés, car, en règle générale, ils fournissent tous le matériel dont nous avons besoin pour mener à bien notre projet. Ainsi, nous devons uniquement nous soucier de la manière optimale de développer la recherche. Peu importe la façon dont la synergie avec l’industrie s’articule, si l’idée vient d’eux ou de nous. Ce qui importe pour l’équipe, c’est de pouvoir se lancer dans une recherche passionnante. Notre objectif est toujours axé sur le pouvoir donné au citoyen. C’est pourquoi nous devons être libres d’étudier les problèmes et de commencer à y apporter des solutions.

Ciudad Creativa Digital, projet pour Guadalajara Ciudad Creativa Digital A.C. Photo: D.R.

Dans des projets comme CopenCycle, The Wireless City, mais aussi The Connected States of America, United Cities of America, Trains of Data, vous avez travaillé avec les technologies en temps réel permettant de visualiser et d’étudier les comportements humains dans les lieux publics, les villes et les transports en commun. Depuis quelques années, les artistes et les hacktivistes (dont Traves Smalley, Constant Dullart, Heatch Bunting, Etan Roth) se sont confrontés à des problématiques du même ordre. Ne pensez-vous pas qu’il serait intéressant de travailler avec eux pour aboutir à une réflexion plus critique concernant les sujets étudiés ?
C’est certain, en effet, nous collaborons souvent avec des artistes et nous nous intéressons beaucoup aux synergies entre les différents domaines. Toutefois, je dois dire que nous croyons à l’autonomie de l’environnement construit — tel qu’il est présenté, entre autres, par John Habraken — et à l’autonomie du « monde artificiel » en général (tel que décrit par Herbert Simon). Dans l’état, nous croyons que les questions du choix et de la réflexion critique devraient être confiées à la société. L’idée que les designers, les ingénieurs ou les artistes sont tenus de déterminer ce qui est bon ou mauvais nous parait tout à fait arrogante.

Le thème de l’Open Data est un sujet d’actualité brulant, qui aura très certainement un impact sur nos vies dans les villes high-tech et connectées du futur. À ce titre, en quoi les industries et les investisseurs privés, voire les municipalités, auraient-ils intérêt à investir dans un projet comme Wiki City ? Comment les artistes et les designers pourraient-ils travailler sur une plateforme web permettant de stocker et d’échanger les données sensibles au temps et à la situation géographique ? À cet égard, l’expérience récente de Salvatore Iaconesi ou encore les cartes émotives de Christian Nold sont plutôt intéressantes et présentent un fort potentiel…
Sur la base de notre expérience, il me semble que les institutions citoyennes du monde entier s’intéressent à la collecte et au partage de données en temps réel. Nous croyons résolument à une approche ascendante (bottom-up) et au fait que les données urbaines peuvent fournir aux citoyens les informations qui leur permettent de prendre des décisions plus éclairées, voire de jouer un rôle dans la transformation de la ville qui les entoure, ce qui aura un effet sur les conditions de vie urbaine pour tous. Par exemple la municipalité de Boston fait la promotion du projet New Urban Mechanics (nouvelles mécaniques urbaines), qui donne aux citoyens un accès rapide aux informations et aux services liés à la gestion de la ville et la possibilité de faire entendre leur voix sur des problèmes du quotidien. Ces systèmes tendent à devenir des plateformes d’information, comme les wikis, qui permettent aux citoyens de se regrouper et de mener ensemble des actions urbaines.

Digital Water Pavilion, Zaragoza, 2008. Projet de Carlo Ratti Associati, avec Claudio Bonicco. Photo: © Claudio Bonicco

Des projets comme Network & Society, Current City, NYTE ou Kinect Kinetics concernent d’importantes réserves de données numériques relatives à la vie urbaine, aux réseaux numériques, à la communication et aux comportements humains. On pourrait imaginer que les industries et les agences privées s’intéressent aux artistes spécialisés dans les logiciels et aux graphistes capables de concevoir des systèmes de visualisation et d’animation 2D de données. Avez-vous déjà envisagé une autre forme de développement dans ce domaine ? Que pensez-vous des visualisations 3D et du prétendu « Internet urbain des objets » ?
Là encore, je préfère me concentrer sur le pouvoir donné aux citoyens. Les visualisations sont importantes, car elles nous permettent — et permettent à tous les citoyens — d’avoir un contact direct avec des données. Nous venons tout juste d’installer notre « Data Drive » au Musée National de Singapour. Il s’agit d’un dispositif développé par l’équipe du Senseable City Lab Live de Singapour : un outil logiciel intuitif et accessible qui permet de visualiser et de manipuler « les grands ensembles de données urbaines ». Le dispositif, qui ressemble à un iPad géant, révèle les données et la dynamique cachée de la ville et devient aussi un instrument interactif.

Puisqu’on parle d’énergie et d’environnement, j’imagine que les industries, les agences, les investisseurs, les start-ups et les médias investissent de gros budgets, notamment dans les domaines de l’énergie, de la gestion des déchets et du développement durable. Vous avez travaillé sur des projets comme Future Enel, CO2GO, Local Warming, TrashTrack dans lesquels les technologies de capteurs en temps réel et les technologies mobiles invasives sont utilisées pour créer une connexion directe entre les citoyens et l’environnement. J’imagine une société où les institutions, les scientifiques, les entreprises et les artistes locaux pourraient travailler ensemble sur des commandes de projets trans-disciplinaires permettant de visualiser, de partager et d’exposer des données et des comportements en vue d’une meilleure compréhension des problèmes d’énergie et de déchets. Qu’en pensez-vous ?
L’un des objectifs de notre recherche est de collecter et de diffuser des données pour découvrir et expliquer ce qui se passe dans notre monde, pour sensibiliser les citoyens aux processus qui se déroulent dans leurs cadres de vie. C’est crucial en termes de problèmes d’énergie et de déchets dans la mesure où cela peut inciter « des modifications de comportement »…

Makr Shakr. Design et conception du projet : MIT Senseable City Lab. Mise en place : Carlo Ratti Associati. Photo: © MyBossWas

Dans les « villes étendues », les services publics interactifs, les informations et les infrastructures de loisir de quartier, le geotagging, la technologie des drones, les systèmes intégrés et les applications robotiques sont appliqués à des problèmes de tous les jours. EyeStop, Smart Urban Furniture et même SkyCal, Geoblog or Flyfire, Makr Shakr constituent des exemples de ces pratiques. Quelle importance revêt le mélange croissant des compétences et des approches de cette problématique, à la fois du point de vue de l’architecture, du design, de l’art et de l’innovation ? Comment les industries High-tech et les ICTs pourraient-ils dialoguer et travailler avec des réseaux professionnels aussi complexes ?
Tout d’abord, je n’ai pas été choisi pour diriger le labo, on m’a demandé de le mettre en place. Alors il est tout à fait probable que les failles du labo reflètent les miennes. De manière plus générale, notre champ d’action est à la croisée des données numériques, de l’espace et de gens. D’où la nécessité de rassembler des disciplines comme l’architecture et le design, la science et la technologie et — dernière discipline, mais non des moindres — les sciences sociales. Une telle diversité est un aspect clé de notre labo. La technologie ne devrait jamais être aux commandes : nous pensons que les technologies doivent d’abord se préoccuper de la vie et des problèmes quotidiens.
Ainsi, lorsque nous menons une recherche, le but de notre travail consiste toujours à trouver des applications concrètes. Si nous n’en sommes pas capables, alors, les compétences techniques ne servent à rien. Il est par ailleurs essentiel d’être convaincu que l’on peut vraiment « inventer notre avenir », pour reprendre les termes d’Alan Key. Enfin, nous développons des projets avec des réseaux ou des professionnels (entreprises, villes) parce qu’ils nous permettent d’avoir un impact à l’échelle urbaine. Quant à eux, ils ont besoin de notre labo pour catalyser les idées et les actions urbaines.

interview par Marco Mancuso (DigiCult)
publié dans MCD #74, « Art / Industrie », juin / août 2014

> www.carloratti.com/
> http://senseable.mit.edu/

La production architecturale contemporaine utilise un nombre croissant d’outils informatiques soumis à une prolifération constante de fonctions et d’allocations changeantes dans le processus du design. Au début des années 1990, les programmes de dessin à disposition n’étaient rien de plus qu’une transposition numérique de processus analogiques et leur accessibilité, leurs fonctions de modélisation et leur puissance de calcul restaient limitées.

Solides cellulaires contrôlable paramétriquement basés sur une topologie optimisée et une pression principale, Daniel Buening / Professeur de Design Numérique et Expérimental. Palz – Université des Arts de Berlin

Aujourd’hui, les outils informatiques de l’architecture ont proliféré dans leur champ d’application et de fonctionnalités, complétés par des processus de fabrication contrôlés numériquement, étendant ainsi leur impact à la fabrication directe. La séparation initiale entre designer et fabricant, qui avait perduré à travers les siècles en architecture, a été modifiée par l’avènement d’un architecte qualifié en informatique et ayant accès à la technologie de fabrication. De nos jours, la fabrication assistée par ordinateur peut être contrôlée numériquement par les architectes et permet une mise en œuvre plus avancée de leurs concepts de design dans la construction, l’apparence et l’agencement des structures architecturales, des surfaces et des espaces. Par conséquent, est-ce que des matériaux plats, tels que des plaques d’acier ou des planches, économiques à découper au laser 2D ou au jet d’eau peuvent se transformer en volumes modelés et assemblés individuellement pour créer une expérience spatiale continue et curviligne… Expérience auparavant inconcevable sans l’intervention de l’ordinateur pour guider les procédés de fabrication : la répartition spatiale aurait été trop complexe et difficile à maîtriser. Similaires aux techniques de drapage utilisées en stylisme de mode (où un textile lisse est plié en une forme tridimensionnelle complexe), grâce à une interaction entre les éléments, la géométrie et la technologie, ces nouveaux modèles créent une apparence complexe dans l’espace. La fabrication de ces technologies qui complètent les opérations de design numérique peut être ici différenciée avec, d’une part, les processus de synthèse soustractive comme le fraisage 3-5 axes, la découpe au laser ou au jet d’eau, où la matière est soustraite d’un volume donné par un dispositif d’outillage et, d’autre part, des processus additifs, produisant une pièce par l’assemblage contrôlé de strates de matériau.

Les méthodes soustractives, qui découpent ou broient entièrement des couches de matériaux peuvent être interprétées comme l’amélioration d’un jeu d’outils traditionnels de travail sur les matières. Les technologies de fraisage s’apparentent à un processus automatisé de sculpture; la découpe guidée par ordinateur remplace ainsi le processus obsolète et laborieux de séparation des matériaux à l’aide de couteaux ou de lames. Grâce à la technologie, les caractéristiques historiques apportées par la réduction manuelle du matériel ont été prolongées, amplifiées et affinées par une précision mécanique plus détaillée, de plus grandes échelles, des cycles de production plus rapides et un plus large choix de matériaux, où l’homme a un rôle de contrôle et de design. La mise en œuvre de cette technologie en architecture s’étend au design ornemental des surfaces en trois dimensions, où les guides de la trajectoire de fabrication sont contrôlés d’un point de vue artistique et ajoutent une articulation affinée au matériau de surface en trois dimensions. Ainsi, la machine n’est plus seulement utilisée pour matérialiser un objet de design aussi précisément que possible, mais comme un nouvel instrument de façonnage architectural qui intègre son mode de production pour apporter une présence esthétique de l’objet ainsi créé.

À l’inverse, la fabrication additive est un terme collectif relatif à une série de procédés de fabrication novateurs qui permettent l’assemblage en strates verticales d’un contenu numérique en trois dimensions dans une large gamme de matériaux allant de polymères au plâtre en passant par les matériaux biodégradables, les alliages métalliques et autres matériaux. Le volume numérique destiné à être fabriqué par un tel procédé peut être d’une grande complexité géométrique, ce qui permet à des objets très détaillés d’être imprimés avec la même célérité que des figures géométriques simples, car le volume est construit par couches transversales de matériaux disposées verticalement dans un ordre chronologique. Les facteurs qui déterminent l’ampleur des détails réalisables sont uniquement définis par le processus de fabrication additif qui transmet l’information relative à la géométrie initiale, par sections, à la tête d’impression ou au faisceau laser qui fait fondre, fritte/agglomère ou colle les matériaux jusqu’à obtenir une forme stable. Cette indépendance de la géométrie et du temps de fabrication représente l’une des propriétés novatrices clé de cette technologie.

La courbe de progression de la technologie est abrupte. Les premiers processus industriels introduits par des systèmes 3D à la fin des années 1980 restaient à petite échelle et utilisaient des couches épaisses, mais il y a aujourd’hui de véritables améliorations dans les matériaux imprimés et dans l’échelle de la production globale. En 2008, la société Objet Geometries a introduit la technologie Connex qui permet la fabrication additive incluant jusqu’à quatorze polymères simultanés dans un processus de construction unique. Ces matériaux peuvent varier dans leurs propriétés élastiques ou leur translucidité et être assemblés pour la production de modèles aux propriétés haptiques (de toucher et de sensation) réalistes. À la même époque, Enrico Dini a développé le processus D-shape (D-forme) qui utilise une presse et des granulés de pierre naturelle pour fabriquer de manière additive des composants à l’échelle d’une construction pouvant atteindre jusqu’à 6m x 6m x 6m. Compte tenu du fait que la fabrication additive facilite grandement la matérialisation d’une complexité géométrique, l’importance des opérations géométriques informatiques sophistiquées s’est accrue au sein de l’activité du designer s’agissant de définir le sujet de tels procédés de matérialisation.

Drapé – Cronenberg #1. Norbert Palz / Daniel Büning / Photo: D.R.

Le niveau d’abstraction induit par ces processus de modélisation ouvre amplement la voie à la mise en œuvre de pilotes de mise en forme d’une variété de sources entremêlées dans un code collectif et une morphologie géométrique, qui dépassent le cliché préconçu du designer. La structure de ces logiciels introduit une relation différente entre le designer et le design en modifiant l’étape où le façonnage pourrait être amorcé. Traditionnellement, la pratique du design suivait le protocole de la géométrie descriptive dans lequel l’architecte travaillait sur une série de dessins codifiés tels les structures élevées, les plans d’étages et les différentes sections pour aboutir à un design final. Il fallait opérer des changements de design dans chaque dessin individuel et le processus de représentation graphique lors de la phase de design rendait l’entreprise laborieuse. La pratique informatique contemporaine fonctionne toujours dans un espace tridimensionnel représenté sur un écran par une image en deux dimensions, mais les dessins en deux dimensions peuvent être extraits à souhait du modèle numérique. Les éléments géométriques du design sont, en outre, interconnectés paramétriquement, des modifications opérées sur un élément se reflètent dans l’apparence de l’autre. Si nous imaginons une grille en trois dimensions construite à partir de cubes ou de sphères, un programme de dessin géométrique classique nécessiterait une redéfinition de l’assemblage de la grille tout entière chaque fois qu’un changement général de l’un des éléments devrait se produire. Dans un modèle paramétrique contemporain, les différents paramètres qui définissent cette grille et les éléments qui en dépendent sont liés numériquement et peuvent être modifiés à volonté et, par conséquent, leur apparence tridimensionnelle est remise à jour en tant que réaction à un changement de la dimension initiale. Des problématiques concurrentes, comme les programmes, la performance environnementale et économique, ainsi que des entités moins évidentes comme la stratégie du design individuel, forment le processus de façonnage numérique et doivent être fusionnées en un système cohérent de relations géométriques.

La machine à géométrie construite par ces canaux de relations entrelacées interprète et modifie de façon dynamique les champs organiques de l’information qui dirigent clairement l’orientation du design. Ces paramètres peuvent recevoir des informations de façonnage issues de nombreuses sources, comme des assertions logiques codées ou des valeurs numériques récoltées dans les dépendances de mathématiques ou même des traductions numériques d’images employées à cet effet. Cette ouverture à de nombreux mécanismes de façonnage élargit l’amplitude du design architectural et artistique dans la mesure où les transpositions, interconnexions et ré-applications de facteurs de façonnage employés ont été facilitées. Cette règle simple définit le degré d’ouverture d’une façade selon le gain d’énergie solaire. La fonction du bâtiment peut ainsi suffire à déterminer la distribution progressive de dispositifs d’ombrage adaptés à chaque ouverture individuelle. Les changements sur ce design ne sont pas opérés sur un élément isolé du bâtiment, mais obtenus par une modification de la règle initiale qui entame une nouvelle itération du design. Ce processus, qui représente une dérogation importante au protocole géométrique euclidien dans lequel chaque élément d’un modèle est dessiné individuellement, mélange des mises en forme de différents types de données dans un tissu interconnecté d’origine artistique, mathématique et informatique. La complexité émergente apparente dans de tels designs développe les matérialisations entièrement pré-concevables, pragmatiques et rationnelles des époques précédentes et favorise les chevauchements géométriques et numériques qui apportent leur propre langue officielle et une nouvelle esthétique de l’irrégularité locale. Cette maitrise des contenus géométriques numériques extrêmement détaillés et irréguliers peut à présent être exploitée pour l’étalonnage local de matériaux et de composants de construction grâce au contrôle informatique de sa structure et de sa composition interne susceptible d’être conçu, analysée et plus tard fabriquée de manière additive dans une chaîne numérique unique. Mais quelles peuvent être les conséquences d’une telle matérialité numérique sur le processus de design architectural ?

Les progrès historiques de l’architecture et du design ont souvent découlé d’innovations dans la technologie de la construction et de la découverte de nouveaux matériaux. Cependant, leur mise en œuvre n’a pas toujours connu un succès immédiat. Les premières structures de génie civil créées après l’invention de la fonte au XVIIIe siècle appliquaient encore les principes structurels de la maçonnerie et des constructions en bois au lieu de tirer pleinement profit des propriétés structurelles du nouveau matériau ajouté au répertoire formel de l’architecture. Dans l’exemple classique du pont de Coalbrookdale (1777-79), on peut vérifier cette mise en application erronée en ce que les joints des éléments en fer ont été conçus comme des liaisons en bois et contiennent donc des composants inutiles sur le plan structurel. Il a fallu attendre de nombreuses années avant que le fer et l’acier révolutionnent le répertoire architectural grâce à leur structure légère et efficace comme on peut le constater dans le célèbre Crystal Palace de Joseph Paxton (1851). Plus tard, le béton armé a permis à de grandes structures étalées d’être construites avec des capacités simultanées de résistance à la pression et au poids comme le montrent, entre autres, les bâtiments pionniers de Pier Luigi Nervi et Eero Saarinen.

Design informatique de structures solides cellulaires à porosité graduelle contrôlable paramétriquement, Daniel Buening / Professeur de Design Numérique et Expérimental. Palz – Université des Arts de Berlin

La fabrication additive, par contraste, permet à un nouveau processus de design d’émerger, qui considère le matériau non pas comme une propriété homogène dont l’application traditionnelle serait basée sur des siècles de pratique et de répétition économique efficace, mais plutôt comme une constellation structurelle unique et variable de matières dans l’espace qui peut être conçue numériquement et s’est concrétisée à différentes échelles. Ces matériaux contiennent des propriétés structurelles en trois dimensions qui s’inscrivent dans le flux. La perspective de créer additivement des matériaux aux compositions internes et au choix de matières sur-mesure laisse envisager une contribution utile aux méthodes de fabrication contemporaines en termes d’efficacité structurelle, de réduction de la consommation de matériaux et de fonctionnalités innovantes et esthétiques des éléments créés en conséquence. La matière, la forme et la géométrie sont désormais intrinsèquement liées et peuvent développer une morphologie unique à chaque modification de leurs conditions limitatives.

Pourtant, dans l’architecture les questions théoriques naissent de ces potentiels, qui remettent en cause la notion traditionnelle du caractère et de la fonctionnalité des matériaux. L’étalonnage numérique guidé et la construction de nouvelles structures et formations envisagées ici modifient le dialogue historique sur la cohérence des matériaux, des structures et des formes présentes dans l’architecture depuis Aristote et Louis Kahn (entre autres). Il se peut donc que les designs architecturaux à venir soient fondés sur une solution structurelle mieux adaptée à un matériau donné avec des propriétés plus ou moins connues, mais il se peut aussi qu’à l’inverse un processus adapte un matériau approprié, doté de caractéristiques progressives uniques, à une forme ou une performance donnée. La complexité performative est alors atteinte non pas par le biais d’ensembles mécaniques complexes, mais à travers des matières localement différenciées. L’ordre constructif propre au Modernisme séparait les éléments des constructions par leurs fonctions hiérarchiques de support de charge et démontrait une rationalité et des dimensions qui débordaient souvent de l’échelle humaine.

Ce processus de construction séquentielle qui ajoute des couches de matériau était (et reste) responsable de la plupart des apparences historiques et contemporaines de l’architecture. L’enveloppe d’un bâtiment peut à l’avenir être transposée presque littéralement en associant les différentes couches de fonctionnalités individuelles à un élément de renforcement intégré, fabriqué a posteriori de manière additive. Ainsi, l’adoption éventuelle de plusieurs fonctions de construction dans un tel composant de construction unique peut s’enrichir de connaissances scientifiques relatives à la biologie et à la botanique. Les structures osseuses spongieuses qui modifient leurs morphologies cellulaires en fonction d’une charge spécifique forment un exemple tout à fait transposable par un processus informatique. Un bloc de construction cellulaire adapté, composé d’éléments géométriques fondés sur une base de données numériques pourrait être présenté parallèlement à l’analyse informatique des pressions ou des forces envisageables et fournir une morphologie définie localement et axée sur une performance juste et précise. La modulation d’éléments morphologiquement différenciés pour un objectif partagé, structural, logistique ou esthétique introduit un changement d’échelle et accorde de la valeur à la localité et à la différence individuelle, encourageant une perception simplifiée et moins hiérarchique de cette construction tectonique.

De telles unités modulaires de construction intégrées qui doivent être assemblées dans un nouveau mode de construction auront inévitablement une incidence sur la présence de l’architecture et établiront ainsi un nouveau langage de construction et d’ordre fonctionnel basé sur une nouvelle séquence d’assemblage structurel. Ces structures complexes peuvent, d’une part, être transposées à des éléments de construction classiques comme les murs, les toits et les colonnes et, d’autre part, initier une typologie nouvelle et sans précédent de composants architecturaux où le rôle de l’articulation qui associe ces éléments revêt une importance et une présence nouvelles. Ces éléments se prévalent de différentes manières des propriétés de la fabrication additive et peuvent offrir des résultats morphologiques sans précédent qui introduisent une nouvelle variation et une échelle humaine dans les éléments de construction. Grâce à l’intégration d’avantages propres à la fabrication additive, un nouveau langage tectonique autonome peut évoluer jusqu’à transformer de manière radicale notre pratique traditionnelle de l’architecture.

 

Norbert Palz
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

Norbert Palz est professeur en Design Numérique et Construction à la Muenster School of Architecture et à l’Academy of Art de Berlin (UdK) où il occupe la Chaire de « design numérique et expérimental » dans la section Architecture.

l’architecte et le virage collaboratif

Daniel Dendra est un architecte et chercheur basé à Berlin. Il étudie les effets perturbateurs des cultures, pratiques et méthodologies de l’open source dans le design contemporain, avec un intérêt particulier pour l’organisation de la pratique architecturale et les nouvelles stratégies de planification des futures mégapoles. Il représente ainsi une réaction dynamique au défi contemporain du design. En 2007, Dendra a fondé anOtherArchitect (aA), un studio de design primé qui se concentre sur des solutions de design durable dans l’environnement bâti. Avant aA, il a travaillé dans divers bureaux d’architectes à Londres, Moscou, Düsseldorf et Rotterdam, comme l’AMO de Rem Koolhaas, Zaha Hadid Architects. De plus, ces dernières années, Dendra a cofondé plusieurs initiatives cruciales dans le domaine du design collaboratif, telles que le réseau de design Open Source OpenSimSim, le prix Cloudscap.es qui récompense des propositions de design durable, la plateforme de design post-tsunami OpenJapan et Future City Lab, l’initiative open-source pour un avenir durable d’ici à 2050.

OpenPod (modèle) @ 12ème Biennale d'Architecture de Venise

OpenPod (modèle) @ 12ème Biennale d’Architecture de Venise. Photo: © anOtherArchitect.

Il est communément admis que la réalisation de type ascendant est une caractéristique majeure de l’architecture. Dans ce domaine cependant, l’Open Source a remis en cause ce principe fondateur en générant des processus de design plus horizontaux : il semblerait que cette nouvelle approche soit mieux adaptée aux contextes informels urbains. À la lumière de votre expérience, pensez-vous qu’une approche open source soit applicable au processus de construction occidental sur-réglementé ? Et, dans l’affirmative, comment procéder ?
Je pense qu’en Occident en particulier où nous vivons depuis longtemps dans un monde sur-réglementé nous avons pu nous démarquer de ces modèles stricts sans trop de risques. Si vous prenez Berlin par exemple, c’est une ville où des processus de type ascendants non-réglementés et non-planifiés ont formé une nouvelle culture qui a, somme toute, transformé le paysage urbain et créé une identité neuve. La municipalité a conscience des possibilités d’une plus grande souplesse dans l’application de la réglementation en vigueur et a soutenu un processus plus dynamique, tourné vers la croissance urbaine. Peu importe si l’on se place du point de vue de l’Occident, de l’Est, du Sud ou du Nord, à travers le monde, les gens sont généralement fatigués de l’absence de transparence des processus. Ainsi, un processus plus ascendant, ou « horizontal » comme vous le qualifiez, est amené à s’imposer comme l’évolution à grande échelle du futur.

D’OpenSimSim à FutureCityLab, vous avez généré, avec votre réseau, plusieurs projets axés sur la connaissance ouverte. Vos wikies et plates-formes de partage tendent à définir la norme de pointe, en termes de relations entre la source, l’architecture ouverte et la planification. Ces projets font intervenir des consultants renommés dans tous les domaines de l’architecture et de l’ingénierie. Pourriez-vous définir le cadre général dans lequel votre réseau s’inscrit et la vision opérationnelle qui le sous-tend ?
Nous expérimentons avec des plateformes et des systèmes différents. Pour Future City Lab, mais aussi OpenJapan, nous avons utilisé un wiki auto-développé sur Drupal. Malheureusement, nous avons subi d’importants problèmes de spam et actuellement nous essayons d’intégrer les médias wiki à nos propres plates-formes. La même chose vaut pour n’importe quel autre système. Puisque tous nos projets sont à but non-lucratif, nous dépendons actuellement de l’aide d’autres communautés. Jusqu’à présent, nous avons bénéficié du soutien de la communauté allemande de Drupal, mais nous envisageons également la participation d’autres développeurs.

Grâce à votre travail, le scénario émergeant implique des designers engagés dans la création de savoirs et la mise en place de réseaux plutôt que dans le design architectural lui-même. Dans un tel contexte, où les idées et les projets peuvent être transformés, améliorés et continuellement remaniés, quelle valeur attribuez-vous à la paternité du designer ? Si l’on cite Mario Carpo, est-ce que la « propriété du design architectural » traditionnelle est vouée au même destin que l’industrie musicale, les quotidiens imprimés, le fax ou tout ce que l’on pourrait citer comme étant devenu obsolète à l’ère du numérique ?
La technologie numérique (mais aussi ce que l’on appelle le moment-(inter)NET) a transformé un grand nombre de modèles commerciaux et d’industries fermement établis. La même chose se produira tôt ou tard, à la fois pour l’architecture et les villes, ce n’est qu’une question de temps. L’émergence de fab-labs et de bureaux de prototypage rapide permettra d’accélérer plus encore ce processus. Dans le même temps, nous ne devrions pas nous inquiéter de perdre nos clients ou notre travail, mais devrions être plus progressistes que l’industrie de la musique et considérer les récents développements comme une opportunité. Le système en place, basé sur des industries de la concurrence et de la corruption n’encourage pas à repousser les limites de notre profession.
Au final, vous gagnez autant si vous vendez votre design 20.000 euros à un client ou 5 euros à 4.000 clients. Avec plus d’un milliard d’utilisateurs d’Internet aujourd’hui, et plus de 3 milliards au cours des deux prochaines années, ces modèles d’entreprise sont réalistes. Il ne faut pas oublier qu’en tant qu’architectes et urbanistes nous avons une tâche colossale : nous devons créer des villes et des bâtiments avec zéro émission de CO2 d’ici à 2050. Il ne reste pas beaucoup de temps si l’on considère qu’à l’heure actuelle il n’existe aucune solution et que le délai de mise en œuvre du design urbain est de 20 ans en moyenne.
De plus en plus, les consommateurs exigent de nouveaux procédés. Avec Magnezit, une grande entreprise de matériaux réfractaires russe, nous développons actuellement un nouveau design architectural qui fait pleinement usage du co-working (co-travail). Il s’agit d’une occasion unique pour mettre en application à grande échelle des idées développées dans nos projets de recherche.

Hedronics Chair @ Biennale d'Architecture de Moscou, 2011

Hedronics Chair @ Biennale d’Architecture de Moscou, 2011. Photo: © anOtherArchitect.

Les phénomènes de collaboration actuels présentent des méthodes d’exploitation et des approches contrastées. D’une part, des plates-formes hyper-pointues d’ingénierie du design et de construction (comme celle mise en place par Gehry Technologies pour la Fondation Louis Vuitton à Paris), permettent à un grand nombre de techniciens dispersés géographiquement de travailler en temps réel et de manière collaborative sur le Building Information Model. Dans cette chaîne numérique de pointe, la responsabilité de la prise de décision est de plus en plus perçue comme le point fort d’une application logicielle spécifique capable de gérer un niveau élevé de complexité. D’autre part, agir et élaborer un design en collaboration est plutôt généralement envisagé comme un moyen de permuter les moments de prise de décision et d’améliorer l’accessibilité globale des personnes au sein du processus de design. Que pensez-vous de ces deux aspects contrastés de la collaboration ? Vont-ils finir par converger ?
J’espère qu’ils vont converger à un moment donné. Bien sûr, les projets à gros budgets comme celui que vous mentionnez ont suffisamment de ressources pour investir dans de nouveaux moyens de collaboration et de prise de décision, puisque, sur le long terme, cela représente une économie budgétaire pour le projet. Si l’on considère qu’il s’agit là de la Formule 1 de l’architecture, j’espère que ces technologies vont peu à peu descendre jusqu’au « marché de masse « . Mais nous devons admettre que l’architecture et les architectes ne sont pas très versés dans les nouvelles technologies. Il suffit de regarder les bâtiments qui gagnent les concours de nos jours et les outils évidents que la plupart des architectes utilisent. Fondamentalement, de tels marchés grand public n’existent pas. Je ne pense pas qu’il soit nécessaire d’attendre de nouvelles normes industrielles ou de s’appuyer sur des bureaux établis.
Notre seul espoir réside dans de nouvelles générations d’architectes désireux de collaborer et prêts à partager leurs connaissances. Le développement de nouveaux outils et de nouvelles plates-formes doit venir de l’intérieur même de cette génération (tout comme cela s’est produit pour l’Internet et l’ensemble de ses plates-formes). La nouvelle génération doit comprendre qu’elle a là une grande occasion d’échapper à la norme actuelle toute tracée de notre profession : cessez de participer à des concours, commencez à participer à des collaborations. Il y a suffisamment d’emplois à pourvoir : actuellement seulement 2% des bâtiments à travers le monde sont conçus par des architectes. Arrêtez d’être en concurrence avec les pratiques établies : découvrez de nouveaux modèles commerciaux, car un grand marché vous attend. Environ 20% du PIB de chaque pays est constitué par le secteur du bâtiment. Nous n’avons pas besoin d’un autre Foster ou d’une autre Hadid — nous avons besoin d’un Zuckerberg de l’architecture, de quelqu’un qui lance un nouveau développement et réinvestisse dans le système. Je suis sûr que nous sommes sur le point de voir une révolution-internet de nos villes sous leur forme physique, ce qui rendra la survie de certains dinosaures laborieuse.

propos recueillis par Sabine Barcucci
publié dans MCD #68, « La culture du libre », sept. / nov. 2012