La production architecturale contemporaine utilise un nombre croissant d’outils informatiques soumis à une prolifération constante de fonctions et d’allocations changeantes dans le processus du design. Au début des années 1990, les programmes de dessin à disposition n’étaient rien de plus qu’une transposition numérique de processus analogiques et leur accessibilité, leurs fonctions de modélisation et leur puissance de calcul restaient limitées.

Solides cellulaires contrôlable paramétriquement basés sur une topologie optimisée et une pression principale, Daniel Buening / Professeur de Design Numérique et Expérimental. Palz – Université des Arts de Berlin

Aujourd’hui, les outils informatiques de l’architecture ont proliféré dans leur champ d’application et de fonctionnalités, complétés par des processus de fabrication contrôlés numériquement, étendant ainsi leur impact à la fabrication directe. La séparation initiale entre designer et fabricant, qui avait perduré à travers les siècles en architecture, a été modifiée par l’avènement d’un architecte qualifié en informatique et ayant accès à la technologie de fabrication. De nos jours, la fabrication assistée par ordinateur peut être contrôlée numériquement par les architectes et permet une mise en œuvre plus avancée de leurs concepts de design dans la construction, l’apparence et l’agencement des structures architecturales, des surfaces et des espaces. Par conséquent, est-ce que des matériaux plats, tels que des plaques d’acier ou des planches, économiques à découper au laser 2D ou au jet d’eau peuvent se transformer en volumes modelés et assemblés individuellement pour créer une expérience spatiale continue et curviligne… Expérience auparavant inconcevable sans l’intervention de l’ordinateur pour guider les procédés de fabrication : la répartition spatiale aurait été trop complexe et difficile à maîtriser. Similaires aux techniques de drapage utilisées en stylisme de mode (où un textile lisse est plié en une forme tridimensionnelle complexe), grâce à une interaction entre les éléments, la géométrie et la technologie, ces nouveaux modèles créent une apparence complexe dans l’espace. La fabrication de ces technologies qui complètent les opérations de design numérique peut être ici différenciée avec, d’une part, les processus de synthèse soustractive comme le fraisage 3-5 axes, la découpe au laser ou au jet d’eau, où la matière est soustraite d’un volume donné par un dispositif d’outillage et, d’autre part, des processus additifs, produisant une pièce par l’assemblage contrôlé de strates de matériau.

Les méthodes soustractives, qui découpent ou broient entièrement des couches de matériaux peuvent être interprétées comme l’amélioration d’un jeu d’outils traditionnels de travail sur les matières. Les technologies de fraisage s’apparentent à un processus automatisé de sculpture; la découpe guidée par ordinateur remplace ainsi le processus obsolète et laborieux de séparation des matériaux à l’aide de couteaux ou de lames. Grâce à la technologie, les caractéristiques historiques apportées par la réduction manuelle du matériel ont été prolongées, amplifiées et affinées par une précision mécanique plus détaillée, de plus grandes échelles, des cycles de production plus rapides et un plus large choix de matériaux, où l’homme a un rôle de contrôle et de design. La mise en œuvre de cette technologie en architecture s’étend au design ornemental des surfaces en trois dimensions, où les guides de la trajectoire de fabrication sont contrôlés d’un point de vue artistique et ajoutent une articulation affinée au matériau de surface en trois dimensions. Ainsi, la machine n’est plus seulement utilisée pour matérialiser un objet de design aussi précisément que possible, mais comme un nouvel instrument de façonnage architectural qui intègre son mode de production pour apporter une présence esthétique de l’objet ainsi créé.

À l’inverse, la fabrication additive est un terme collectif relatif à une série de procédés de fabrication novateurs qui permettent l’assemblage en strates verticales d’un contenu numérique en trois dimensions dans une large gamme de matériaux allant de polymères au plâtre en passant par les matériaux biodégradables, les alliages métalliques et autres matériaux. Le volume numérique destiné à être fabriqué par un tel procédé peut être d’une grande complexité géométrique, ce qui permet à des objets très détaillés d’être imprimés avec la même célérité que des figures géométriques simples, car le volume est construit par couches transversales de matériaux disposées verticalement dans un ordre chronologique. Les facteurs qui déterminent l’ampleur des détails réalisables sont uniquement définis par le processus de fabrication additif qui transmet l’information relative à la géométrie initiale, par sections, à la tête d’impression ou au faisceau laser qui fait fondre, fritte/agglomère ou colle les matériaux jusqu’à obtenir une forme stable. Cette indépendance de la géométrie et du temps de fabrication représente l’une des propriétés novatrices clé de cette technologie.

La courbe de progression de la technologie est abrupte. Les premiers processus industriels introduits par des systèmes 3D à la fin des années 1980 restaient à petite échelle et utilisaient des couches épaisses, mais il y a aujourd’hui de véritables améliorations dans les matériaux imprimés et dans l’échelle de la production globale. En 2008, la société Objet Geometries a introduit la technologie Connex qui permet la fabrication additive incluant jusqu’à quatorze polymères simultanés dans un processus de construction unique. Ces matériaux peuvent varier dans leurs propriétés élastiques ou leur translucidité et être assemblés pour la production de modèles aux propriétés haptiques (de toucher et de sensation) réalistes. À la même époque, Enrico Dini a développé le processus D-shape (D-forme) qui utilise une presse et des granulés de pierre naturelle pour fabriquer de manière additive des composants à l’échelle d’une construction pouvant atteindre jusqu’à 6m x 6m x 6m. Compte tenu du fait que la fabrication additive facilite grandement la matérialisation d’une complexité géométrique, l’importance des opérations géométriques informatiques sophistiquées s’est accrue au sein de l’activité du designer s’agissant de définir le sujet de tels procédés de matérialisation.

Drapé – Cronenberg #1. Norbert Palz / Daniel Büning / Photo: D.R.

Le niveau d’abstraction induit par ces processus de modélisation ouvre amplement la voie à la mise en œuvre de pilotes de mise en forme d’une variété de sources entremêlées dans un code collectif et une morphologie géométrique, qui dépassent le cliché préconçu du designer. La structure de ces logiciels introduit une relation différente entre le designer et le design en modifiant l’étape où le façonnage pourrait être amorcé. Traditionnellement, la pratique du design suivait le protocole de la géométrie descriptive dans lequel l’architecte travaillait sur une série de dessins codifiés tels les structures élevées, les plans d’étages et les différentes sections pour aboutir à un design final. Il fallait opérer des changements de design dans chaque dessin individuel et le processus de représentation graphique lors de la phase de design rendait l’entreprise laborieuse. La pratique informatique contemporaine fonctionne toujours dans un espace tridimensionnel représenté sur un écran par une image en deux dimensions, mais les dessins en deux dimensions peuvent être extraits à souhait du modèle numérique. Les éléments géométriques du design sont, en outre, interconnectés paramétriquement, des modifications opérées sur un élément se reflètent dans l’apparence de l’autre. Si nous imaginons une grille en trois dimensions construite à partir de cubes ou de sphères, un programme de dessin géométrique classique nécessiterait une redéfinition de l’assemblage de la grille tout entière chaque fois qu’un changement général de l’un des éléments devrait se produire. Dans un modèle paramétrique contemporain, les différents paramètres qui définissent cette grille et les éléments qui en dépendent sont liés numériquement et peuvent être modifiés à volonté et, par conséquent, leur apparence tridimensionnelle est remise à jour en tant que réaction à un changement de la dimension initiale. Des problématiques concurrentes, comme les programmes, la performance environnementale et économique, ainsi que des entités moins évidentes comme la stratégie du design individuel, forment le processus de façonnage numérique et doivent être fusionnées en un système cohérent de relations géométriques.

La machine à géométrie construite par ces canaux de relations entrelacées interprète et modifie de façon dynamique les champs organiques de l’information qui dirigent clairement l’orientation du design. Ces paramètres peuvent recevoir des informations de façonnage issues de nombreuses sources, comme des assertions logiques codées ou des valeurs numériques récoltées dans les dépendances de mathématiques ou même des traductions numériques d’images employées à cet effet. Cette ouverture à de nombreux mécanismes de façonnage élargit l’amplitude du design architectural et artistique dans la mesure où les transpositions, interconnexions et ré-applications de facteurs de façonnage employés ont été facilitées. Cette règle simple définit le degré d’ouverture d’une façade selon le gain d’énergie solaire. La fonction du bâtiment peut ainsi suffire à déterminer la distribution progressive de dispositifs d’ombrage adaptés à chaque ouverture individuelle. Les changements sur ce design ne sont pas opérés sur un élément isolé du bâtiment, mais obtenus par une modification de la règle initiale qui entame une nouvelle itération du design. Ce processus, qui représente une dérogation importante au protocole géométrique euclidien dans lequel chaque élément d’un modèle est dessiné individuellement, mélange des mises en forme de différents types de données dans un tissu interconnecté d’origine artistique, mathématique et informatique. La complexité émergente apparente dans de tels designs développe les matérialisations entièrement pré-concevables, pragmatiques et rationnelles des époques précédentes et favorise les chevauchements géométriques et numériques qui apportent leur propre langue officielle et une nouvelle esthétique de l’irrégularité locale. Cette maitrise des contenus géométriques numériques extrêmement détaillés et irréguliers peut à présent être exploitée pour l’étalonnage local de matériaux et de composants de construction grâce au contrôle informatique de sa structure et de sa composition interne susceptible d’être conçu, analysée et plus tard fabriquée de manière additive dans une chaîne numérique unique. Mais quelles peuvent être les conséquences d’une telle matérialité numérique sur le processus de design architectural ?

Les progrès historiques de l’architecture et du design ont souvent découlé d’innovations dans la technologie de la construction et de la découverte de nouveaux matériaux. Cependant, leur mise en œuvre n’a pas toujours connu un succès immédiat. Les premières structures de génie civil créées après l’invention de la fonte au XVIIIe siècle appliquaient encore les principes structurels de la maçonnerie et des constructions en bois au lieu de tirer pleinement profit des propriétés structurelles du nouveau matériau ajouté au répertoire formel de l’architecture. Dans l’exemple classique du pont de Coalbrookdale (1777-79), on peut vérifier cette mise en application erronée en ce que les joints des éléments en fer ont été conçus comme des liaisons en bois et contiennent donc des composants inutiles sur le plan structurel. Il a fallu attendre de nombreuses années avant que le fer et l’acier révolutionnent le répertoire architectural grâce à leur structure légère et efficace comme on peut le constater dans le célèbre Crystal Palace de Joseph Paxton (1851). Plus tard, le béton armé a permis à de grandes structures étalées d’être construites avec des capacités simultanées de résistance à la pression et au poids comme le montrent, entre autres, les bâtiments pionniers de Pier Luigi Nervi et Eero Saarinen.

Design informatique de structures solides cellulaires à porosité graduelle contrôlable paramétriquement, Daniel Buening / Professeur de Design Numérique et Expérimental. Palz – Université des Arts de Berlin

La fabrication additive, par contraste, permet à un nouveau processus de design d’émerger, qui considère le matériau non pas comme une propriété homogène dont l’application traditionnelle serait basée sur des siècles de pratique et de répétition économique efficace, mais plutôt comme une constellation structurelle unique et variable de matières dans l’espace qui peut être conçue numériquement et s’est concrétisée à différentes échelles. Ces matériaux contiennent des propriétés structurelles en trois dimensions qui s’inscrivent dans le flux. La perspective de créer additivement des matériaux aux compositions internes et au choix de matières sur-mesure laisse envisager une contribution utile aux méthodes de fabrication contemporaines en termes d’efficacité structurelle, de réduction de la consommation de matériaux et de fonctionnalités innovantes et esthétiques des éléments créés en conséquence. La matière, la forme et la géométrie sont désormais intrinsèquement liées et peuvent développer une morphologie unique à chaque modification de leurs conditions limitatives.

Pourtant, dans l’architecture les questions théoriques naissent de ces potentiels, qui remettent en cause la notion traditionnelle du caractère et de la fonctionnalité des matériaux. L’étalonnage numérique guidé et la construction de nouvelles structures et formations envisagées ici modifient le dialogue historique sur la cohérence des matériaux, des structures et des formes présentes dans l’architecture depuis Aristote et Louis Kahn (entre autres). Il se peut donc que les designs architecturaux à venir soient fondés sur une solution structurelle mieux adaptée à un matériau donné avec des propriétés plus ou moins connues, mais il se peut aussi qu’à l’inverse un processus adapte un matériau approprié, doté de caractéristiques progressives uniques, à une forme ou une performance donnée. La complexité performative est alors atteinte non pas par le biais d’ensembles mécaniques complexes, mais à travers des matières localement différenciées. L’ordre constructif propre au Modernisme séparait les éléments des constructions par leurs fonctions hiérarchiques de support de charge et démontrait une rationalité et des dimensions qui débordaient souvent de l’échelle humaine.

Ce processus de construction séquentielle qui ajoute des couches de matériau était (et reste) responsable de la plupart des apparences historiques et contemporaines de l’architecture. L’enveloppe d’un bâtiment peut à l’avenir être transposée presque littéralement en associant les différentes couches de fonctionnalités individuelles à un élément de renforcement intégré, fabriqué a posteriori de manière additive. Ainsi, l’adoption éventuelle de plusieurs fonctions de construction dans un tel composant de construction unique peut s’enrichir de connaissances scientifiques relatives à la biologie et à la botanique. Les structures osseuses spongieuses qui modifient leurs morphologies cellulaires en fonction d’une charge spécifique forment un exemple tout à fait transposable par un processus informatique. Un bloc de construction cellulaire adapté, composé d’éléments géométriques fondés sur une base de données numériques pourrait être présenté parallèlement à l’analyse informatique des pressions ou des forces envisageables et fournir une morphologie définie localement et axée sur une performance juste et précise. La modulation d’éléments morphologiquement différenciés pour un objectif partagé, structural, logistique ou esthétique introduit un changement d’échelle et accorde de la valeur à la localité et à la différence individuelle, encourageant une perception simplifiée et moins hiérarchique de cette construction tectonique.

De telles unités modulaires de construction intégrées qui doivent être assemblées dans un nouveau mode de construction auront inévitablement une incidence sur la présence de l’architecture et établiront ainsi un nouveau langage de construction et d’ordre fonctionnel basé sur une nouvelle séquence d’assemblage structurel. Ces structures complexes peuvent, d’une part, être transposées à des éléments de construction classiques comme les murs, les toits et les colonnes et, d’autre part, initier une typologie nouvelle et sans précédent de composants architecturaux où le rôle de l’articulation qui associe ces éléments revêt une importance et une présence nouvelles. Ces éléments se prévalent de différentes manières des propriétés de la fabrication additive et peuvent offrir des résultats morphologiques sans précédent qui introduisent une nouvelle variation et une échelle humaine dans les éléments de construction. Grâce à l’intégration d’avantages propres à la fabrication additive, un nouveau langage tectonique autonome peut évoluer jusqu’à transformer de manière radicale notre pratique traditionnelle de l’architecture.

 

Norbert Palz
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

Norbert Palz est professeur en Design Numérique et Construction à la Muenster School of Architecture et à l’Academy of Art de Berlin (UdK) où il occupe la Chaire de « design numérique et expérimental » dans la section Architecture.

déconstruction sonore

Julien Ottavi est un intellectuel contemporain hybride très intéressant, capable d’explorer et d’associer un activisme médiatique à la composition sonore, à la poésie, au cinéma expérimental et à l’anarchitecture. Il est membre fondateur du collectif Apo33 (une association prolifique dans les domaines interdisciplinaires de l’art et de la technologie alliant recherche, expérimentation et intervention sociale) dont l’ADN se situe dans la fusion de l’art sonore, du live-vidéo, des nouvelles technologies et des performances physiques et dans le développement d’outils matériels et logiciels destinés à des projets créatifs,

Julien Ottavi – The Noiser.

Julien Ottavi – The Noiser. Photo : Julien Ottavi/Apo33 (Copyleft)

Depuis 1997, Ottavi développe un travail de composition qui utilise la déconstruction de la voix et la fragmentation de processus grâce au montage numérique. Durant de nombreuses années, en tant que développeur audio et vidéo par le biais de Pure Data, il a fouillé les réserves de l’électronique et construit à partir de matériaux non-conventionnels ou obsolètes, tout en maintenant une posture « militante » quant au partage des connaissances sur le développement technologique, un cheminement qui a conduit à la création d’APODIO, un système d’exploitation Gnu/Linux dédié à l’art numérique. Il suit de manière inconditionnelle la philosophie de l’open source, interprétée comme une ouverture complète, libérée du carcan de la propriété intellectuelle, des idées classiques de l’auteur en tant que créateur individuel et des œuvres d’art issues de talents uniques et individuels. Parti de la scène underground de Nantes jusqu’à atteindre une dimension mondiale, son travail se caractérise par une approche fluide qui se démarque par l’émancipation constante des catégories stylistiques et de fonctionnelles.

Comment est née l’idée d’Apo33 ? De nos jours, un collectif lié à un contexte artistique militant qui guide son travail sur les nouveaux médias n’est plus exceptionnel, mais peut-être l’était-il lorsque vous avez commencé ?
Apo33 a débuté en 1996. L’idée originale était d’apporter à Nantes la musique bruitiste et expérimentale, les performances, tous ces genres qui n’étaient pas représentés dans les médias grand public. Au début des années 2000, nous avons évolué vers la production, la recherche et la promotion de nos propres œuvres d’art. Lorsque nous avons commencé à hybrider l’art, les technologies, l’écologie, la philosophie et la théorie, c’était absolument nouveau en termes d’organisations transdisciplinaires. Nous collaborions alors beaucoup avec des organisations militantes, des médias et associations politiques alternatifs, des collectifs d’art, des organisations travaillant autour des logiciels libres, des nouvelles technologies, du copyleft et, enfin, d’autres groupes versés dans la théorie et la philosophie. Cependant, il était rare que ces organisations mélangent tous ces éléments de manière non-hiérarchique. Aujourd’hui, ces pratiques sont plus répandues et on trouve plusieurs collectifs comme Apo33 dans le monde entier. Cela nous réjouit parce qu’il est important que ces modes d’organisation se multiplient de manière virale et sèment de nouvelles graines dans le quotidien des gens.

Je trouve particulièrement intéressant de lier les changements technologiques et socio-économiques de l’ »information / communication / économie » aux concepts de production et de consommation qui excluent la participation directe de l’argent. Je pense à ces soi-disant « activités économiques non-monétaires » qui sont difficiles à quantifier à travers des indicateurs monétaires, mais susceptibles d’être mieux expliquées par les catégories des médias numériques, des réseaux et de l’esthétique du flux (1).
À vrai dire, ce n’était pas le premier lien, mais à un moment donné il a pris de l’importance parce que nous voulions survivre grâce à notre art, sans avoir pour autant à vendre notre âme. Nous voulions, et voulons encore, rester cohérents par rapport à nos aspirations. Tu produis de l’art, des logiciels, du savoir, des outils que tu partages avec ta communauté, tu ne vends pas de produits dans le but de dégager un bénéfice. Si tu vends quelque chose, ce sera lié à des services, des processus de production, etc. Le mouvement du copyleft apporte de nouveaux paradigmes d’échange économique basés sur les relations sociales et des échanges de « principe », par opposition au capitalisme dont les objectifs sont l’exploitation des travailleurs et le profit issu de tout produit possible, y compris de l’argent (en tant qu’objet virtuel), des productions de masse, de l’épuisement de la nature (terre, ressources, animaux, etc.) et des activités humaines (art, agriculture, énergies, sciences, logement, etc.).

Depuis quelques années, les logiciels libres sont impliqués dans la pratique de réseau. C’est par le biais de ces réseaux originels que le code source a pu circuler; il a été partagé, copié, modifié. Le logiciel libre n’a pu être développé qu’à partir d’un effort collaboratif, de projets, programmations, corrections et beta-tests multi-auteurs. Dès le départ, le projet du « libre » s’est intégré à la pratique d’Internet et du réseau. Sans les logiciels libres et les options de licences affranchies du droit d’auteur, la notion de réseaux numériques se serait trouvée elle-même limitée à des sites payants ou contrôlés par des sociétés privées. Alors que ces sociétés sont manifestement présentes dans le système actuel, elles doivent rivaliser avec des structures plus ouvertes, qui s’ajoutent à une variété de produits issus de la libre circulation, telle que des logiciels, des textes, des idées, de la documentation, des outils de distribution, de communauté, d’entraide, des forums, des modes de partage, etc. Plusieurs formes de création associées à des notions contemporaines de réseaux, de partages et de collaborations ont été mises au point à l’intérieur et en dehors d’Internet…

Lorsque l’auteur se démultiplie, dix fois, mille fois, lorsque la machine (prothèse de l’être humain) devient créatrice autonome et quasi-indépendante, nous pourrions y voir une nouvelle société en pleine émergence où des visions neuves se mêlent et s’entremêlent, s’accumulent et explosent, de nouveaux espoirs surgissent menant à des transformations. Les transformations machiniques ont mené au chaos, à des comportements étranges et inouïs. À présent, nous courrons dans l’obscurité avec la peur comme seul éclairage; peut-être vers notre extermination, comme Icare visant le soleil, essayant de disparaître dans le soleil. Mais en quoi cela est-il lié à des pratiques artistiques ? Peut-être que ces pratiques ne font que refléter nos champs de vision, nos désirs, nos fantômes ? Le désir est peut-être nécessaire à notre transformation, et nous avons besoin de créer des machines, par le biais de réseaux, de participer collectivement à une œuvre d’art incommensurable et interminable, avec des réseaux agissant comme autant de multiplicateurs d’une myriade de permutations.

Que pensez-vous de la scène musicale actuelle du glitch ? Ce type d’expression est souvent basé sur une esthétique de l’erreur avec une matrice post-structurale et trouve son orientation conceptuelle dans le slogan de Deleuze et Guattari : Les machines désirantes ne marchent que détraquées (2). Est-ce que cela exprime également votre point de vue politique ?
Il est intéressant de se pencher sur la question de l’erreur dans l’art en général, de la musique improvisée au cinéma expérimental. Le glitch, l’erreur numérique, le bug, la saleté sont très importants pour les modes d’expression émergents : ils créent de nouvelles façons de jouer avec le medium ou donner des outils à l’artiste. Dans le cas de l’ordinateur, tout le monde est confronté à sa limite. Sa technologie est loin d’être parfaite et, en ce moment, il se multiplie sans fin, ce qui a pour résultat des décharges en Inde, en Afrique ou en Chine, où les pauvres et les enfants sont intoxiqués par le recyclage de composants dangereux qui forment ces outils. Nous devons non seulement aller au-delà de l’idée de simplement faire de la musique ou de l’art numérique, mais aussi il nous faut prendre en compte l’aspect du recyclage. La philosophie GNU/Linux et les nouvelles pratiques de recyclage des machines pour de nouvelles utilisations devraient pouvoir inspirer des artistes dans leur musique et dans leur production artistique.

Apo33, L’oiseau et l’autre, installation sonore basée sur des chants d'oiseaux, 2012.

Apo33, L’oiseau et l’autre, installation sonore basée sur des chants d’oiseaux, 2012. Photo : Julien Ottavi/Apo33 (Copyleft)

La formation des personnes impliquées dans ces disciplines est nécessairement hétérogène : elle est souvent située à la croisée de l’éducation artistique et musicale, ou dans un champ complètement différent. De quel domaine votre univers s’inspire-t-il ?
Depuis de nombreuses années, je développe une pratique de recherche artistique basée sur les nouvelles formes d’écriture musicale utilisant l’ordinateur, les outils audio et les réseaux. À partir de l’interprétation musicale de partitions graphiques telles que Treatise de Cornelius Cardew, December d’Earle Brown ou Cartridge Music de John Cage, j’ai axé mon travail sur l’idée d’une composition programmatique, de recherches dans le domaine du code en tant que partition, mélange de partitions, instrument et direction. Par conséquent, lorsque j’écris un morceau de code ou un « patch » (j’utilise PureData comme principal outil de code) en mettant l’accent sur des idées précises telles que « l’étude de fréquences » ou « la musique de bruit blanc », le programme fait glisser l’interprétation vers une zone avancée dont le musicien suit les chemins indéterminés : la partition graphique, à travers laquelle son interprétation est étroitement liée à l’ouverture de la composition.

L’ordinateur est devenu pour moi un domaine musical où musiciens, interprètes, compositeurs, programmeurs et autres praticiens fusionnent avec de nouveaux outils où s’opèrent des potentialités musicales infinies. Plus qu’un instrument, l’ordinateur offre une toute nouvelle compréhension de la composition musicale. Je peux simultanément construire mon instrument et réaliser une composition, au moment même où j’interprète et joue la musique en public tout en enregistrant et diffusant ce qui en résulte à travers le monde. Je peux contrôler l’ensemble de la chaîne de la production artistique, de son écriture et de sa conception à sa production et sa distribution.

Les ordinateurs portables et autres technologies mobiles, tels que les enregistreurs numériques, apportent un autre niveau à ces pratiques musicales. Nous ne sommes plus limités par notre positionnement spatial : l’espace du studio. La caverne/refuge du musicien/compositeur peut devenir tout aussi nomade que son utilisateur. Nous pouvons presque écrire et composer/jouer/diffuser de la musique aussi souvent que nous le voulons. Ces réalités ont changé ma pratique musicale, offrant une plus grande liberté de mouvement par rapport aux restrictions spatio-temporelles ou aux limitations géographiques dans le cadre de ma production musicale.

En même temps qu’une plus grande mobilité était offerte par l’ordinateur, transformant radicalement ma relation à l’atelier, le World Wide Web est arrivé et avec lui une autre dimension de ma pratique musicale. Je peux à présent jouer à distance avec d’autres musiciens et compositeurs dans des salles de concert, sans avoir à m’y trouver physiquement. Cela m’a conduit à produire et participer à des festivals de musique en ligne ou des concerts à distance, ainsi qu’à collaborer avec différents musiciens dans un contexte où le public, comme les musiciens, ne sont plus dans un espace donné, mais sont dispersés à travers le monde, à l’échelle globale et font l’expérience simultanée de ces productions. Nous pouvons transférer des sons de très haute qualité sur Internet à l’aide des technologies du stream.

En fin de compte, cela signifie que pour explorer ces nouvelles pratiques et collaborations musicales, je peux maintenant travailler avec les musiciens avec qui je souhaitais jouer sans avoir à planifier de voyage, de vol, de visa, etc. Ceci a également contribué à renforcer la communauté et a ouvert les frontières pour les musiciens de pays comme l’Amérique du Sud, l’Afrique ou l’Asie, dont le travail n’était ni diffusé ni connu en Occident. J’ai également commencé à mettre en place mes propres serveurs pour expérimenter avec des studios de musique en ligne, où j’ai enregistré un album entier en collaboration avec un autre musicien à New York, sans jamais être dans le même pays au cours de la production de ce travail. En utilisant la fonction traditionnelle du studio (postproduction), l’enregistrement audio, le mixage multi-canal, etc. avec cette plateforme en ligne, on a travaillé pendant un mois, sur quelques heures d’enregistrements récents et terminés de nouvelles compositions destinées à un CD de 45 minutes.

Mon travail est hanté par un rêve : celui de pouvoir écouter la musique que j’ai dans la tête, paradoxalement sans la fabriquer. Cela vient de l’idée que je suis avant tout un auditeur dont découle le musicien/compositeur. Quand je joue/crée de la musique, j’aime pouvoir l’écouter en même temps que l’auditoire qui la reçoit, plutôt que de me focaliser sur le processus de composition. L’enregistrement ne suffisait pas, car son évolution organique est figée. Je voulais écouter de la musique avec des éléments incontrôlables/imprévisibles, qui intègrent des sources sonores externes (externes à la synthèse, l’algorithme ou la logique informatique). J’ai donc décidé de créer un compositeur automatisé, prenant le relais à partir du point où se situe la Musique, comme le proposait John Cage, c’est-à-dire : une série d’événements sur une ligne chronologique, la Musique est l’écriture du temps, la Musique est temps…

Ce système d’automation doit pouvoir mélanger des sons grâce à un système de samplers, de contrôles de volume et d’effets gérés par différentes horloges effectuant des traitements selon des valeurs aléatoires, y compris des réactions échappant aux contrôles de données comme les entrées fondamentales, les fréquences et les enveloppes. Cette musique peut être créée de n’importe où, en captant du bruit dans la rue, dans un champ ou dans un immeuble, puis en le mixant, le transformant, l’envoyant sur Internet et le diffusant en stream en temps réel à n’importe quel auditeur du cyberespace.

À ce jour, j’ai pu écouter ma « propre » musique chez moi, sans la fabriquer et je suis en mesure d’écouter les transformations subtiles des mouvements sonores et inattendus provenant des changements issus de la source sonore liée aux activités qui se produisent dans les rues et bâtiments et champs où le son est capté : […] une communauté crée des utilisations possibles de la technologie. L’ »utilisateur » de la technologie, n’est donc pas un individu, mais un membre de la communauté ayant une pratique qui utilise la technologie en question. L’utilisateur unique est impliqué dans les pratiques de la communauté et donne du sens à la technologie dans le contexte de ces pratiques. Quand l’innovation transforme ces pratiques, de nouvelles manières d’agir créent de nouvelles interprétations du monde. Si l’innovation est technologique, la technologie s’intègre de manière nouvelle dans la pratique sociale et acquiert un nouveau sens (3).

 

Interview par Pasquale Napolitano
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

 

(1) Manuel Castells, Internet Galaxy (Oxford, Oxford University Press, 2001).
(2) Gilles Deleuze et Félix Guattari, L’Anti-Œdipe (Minuit, 1972).
(3) Ilka Tuomi, Networks of Innovation, change and meaning in the age of the Internet (Oxford, Oxford University Press, 2002)

> http://apo33.org/

l’architecte et le virage collaboratif

Daniel Dendra est un architecte et chercheur basé à Berlin. Il étudie les effets perturbateurs des cultures, pratiques et méthodologies de l’open source dans le design contemporain, avec un intérêt particulier pour l’organisation de la pratique architecturale et les nouvelles stratégies de planification des futures mégapoles. Il représente ainsi une réaction dynamique au défi contemporain du design. En 2007, Dendra a fondé anOtherArchitect (aA), un studio de design primé qui se concentre sur des solutions de design durable dans l’environnement bâti. Avant aA, il a travaillé dans divers bureaux d’architectes à Londres, Moscou, Düsseldorf et Rotterdam, comme l’AMO de Rem Koolhaas, Zaha Hadid Architects. De plus, ces dernières années, Dendra a cofondé plusieurs initiatives cruciales dans le domaine du design collaboratif, telles que le réseau de design Open Source OpenSimSim, le prix Cloudscap.es qui récompense des propositions de design durable, la plateforme de design post-tsunami OpenJapan et Future City Lab, l’initiative open-source pour un avenir durable d’ici à 2050.

OpenPod (modèle) @ 12ème Biennale d'Architecture de Venise

OpenPod (modèle) @ 12ème Biennale d’Architecture de Venise. Photo: © anOtherArchitect.

Il est communément admis que la réalisation de type ascendant est une caractéristique majeure de l’architecture. Dans ce domaine cependant, l’Open Source a remis en cause ce principe fondateur en générant des processus de design plus horizontaux : il semblerait que cette nouvelle approche soit mieux adaptée aux contextes informels urbains. À la lumière de votre expérience, pensez-vous qu’une approche open source soit applicable au processus de construction occidental sur-réglementé ? Et, dans l’affirmative, comment procéder ?
Je pense qu’en Occident en particulier où nous vivons depuis longtemps dans un monde sur-réglementé nous avons pu nous démarquer de ces modèles stricts sans trop de risques. Si vous prenez Berlin par exemple, c’est une ville où des processus de type ascendants non-réglementés et non-planifiés ont formé une nouvelle culture qui a, somme toute, transformé le paysage urbain et créé une identité neuve. La municipalité a conscience des possibilités d’une plus grande souplesse dans l’application de la réglementation en vigueur et a soutenu un processus plus dynamique, tourné vers la croissance urbaine. Peu importe si l’on se place du point de vue de l’Occident, de l’Est, du Sud ou du Nord, à travers le monde, les gens sont généralement fatigués de l’absence de transparence des processus. Ainsi, un processus plus ascendant, ou « horizontal » comme vous le qualifiez, est amené à s’imposer comme l’évolution à grande échelle du futur.

D’OpenSimSim à FutureCityLab, vous avez généré, avec votre réseau, plusieurs projets axés sur la connaissance ouverte. Vos wikies et plates-formes de partage tendent à définir la norme de pointe, en termes de relations entre la source, l’architecture ouverte et la planification. Ces projets font intervenir des consultants renommés dans tous les domaines de l’architecture et de l’ingénierie. Pourriez-vous définir le cadre général dans lequel votre réseau s’inscrit et la vision opérationnelle qui le sous-tend ?
Nous expérimentons avec des plateformes et des systèmes différents. Pour Future City Lab, mais aussi OpenJapan, nous avons utilisé un wiki auto-développé sur Drupal. Malheureusement, nous avons subi d’importants problèmes de spam et actuellement nous essayons d’intégrer les médias wiki à nos propres plates-formes. La même chose vaut pour n’importe quel autre système. Puisque tous nos projets sont à but non-lucratif, nous dépendons actuellement de l’aide d’autres communautés. Jusqu’à présent, nous avons bénéficié du soutien de la communauté allemande de Drupal, mais nous envisageons également la participation d’autres développeurs.

Grâce à votre travail, le scénario émergeant implique des designers engagés dans la création de savoirs et la mise en place de réseaux plutôt que dans le design architectural lui-même. Dans un tel contexte, où les idées et les projets peuvent être transformés, améliorés et continuellement remaniés, quelle valeur attribuez-vous à la paternité du designer ? Si l’on cite Mario Carpo, est-ce que la « propriété du design architectural » traditionnelle est vouée au même destin que l’industrie musicale, les quotidiens imprimés, le fax ou tout ce que l’on pourrait citer comme étant devenu obsolète à l’ère du numérique ?
La technologie numérique (mais aussi ce que l’on appelle le moment-(inter)NET) a transformé un grand nombre de modèles commerciaux et d’industries fermement établis. La même chose se produira tôt ou tard, à la fois pour l’architecture et les villes, ce n’est qu’une question de temps. L’émergence de fab-labs et de bureaux de prototypage rapide permettra d’accélérer plus encore ce processus. Dans le même temps, nous ne devrions pas nous inquiéter de perdre nos clients ou notre travail, mais devrions être plus progressistes que l’industrie de la musique et considérer les récents développements comme une opportunité. Le système en place, basé sur des industries de la concurrence et de la corruption n’encourage pas à repousser les limites de notre profession.
Au final, vous gagnez autant si vous vendez votre design 20.000 euros à un client ou 5 euros à 4.000 clients. Avec plus d’un milliard d’utilisateurs d’Internet aujourd’hui, et plus de 3 milliards au cours des deux prochaines années, ces modèles d’entreprise sont réalistes. Il ne faut pas oublier qu’en tant qu’architectes et urbanistes nous avons une tâche colossale : nous devons créer des villes et des bâtiments avec zéro émission de CO2 d’ici à 2050. Il ne reste pas beaucoup de temps si l’on considère qu’à l’heure actuelle il n’existe aucune solution et que le délai de mise en œuvre du design urbain est de 20 ans en moyenne.
De plus en plus, les consommateurs exigent de nouveaux procédés. Avec Magnezit, une grande entreprise de matériaux réfractaires russe, nous développons actuellement un nouveau design architectural qui fait pleinement usage du co-working (co-travail). Il s’agit d’une occasion unique pour mettre en application à grande échelle des idées développées dans nos projets de recherche.

Hedronics Chair @ Biennale d'Architecture de Moscou, 2011

Hedronics Chair @ Biennale d’Architecture de Moscou, 2011. Photo: © anOtherArchitect.

Les phénomènes de collaboration actuels présentent des méthodes d’exploitation et des approches contrastées. D’une part, des plates-formes hyper-pointues d’ingénierie du design et de construction (comme celle mise en place par Gehry Technologies pour la Fondation Louis Vuitton à Paris), permettent à un grand nombre de techniciens dispersés géographiquement de travailler en temps réel et de manière collaborative sur le Building Information Model. Dans cette chaîne numérique de pointe, la responsabilité de la prise de décision est de plus en plus perçue comme le point fort d’une application logicielle spécifique capable de gérer un niveau élevé de complexité. D’autre part, agir et élaborer un design en collaboration est plutôt généralement envisagé comme un moyen de permuter les moments de prise de décision et d’améliorer l’accessibilité globale des personnes au sein du processus de design. Que pensez-vous de ces deux aspects contrastés de la collaboration ? Vont-ils finir par converger ?
J’espère qu’ils vont converger à un moment donné. Bien sûr, les projets à gros budgets comme celui que vous mentionnez ont suffisamment de ressources pour investir dans de nouveaux moyens de collaboration et de prise de décision, puisque, sur le long terme, cela représente une économie budgétaire pour le projet. Si l’on considère qu’il s’agit là de la Formule 1 de l’architecture, j’espère que ces technologies vont peu à peu descendre jusqu’au « marché de masse « . Mais nous devons admettre que l’architecture et les architectes ne sont pas très versés dans les nouvelles technologies. Il suffit de regarder les bâtiments qui gagnent les concours de nos jours et les outils évidents que la plupart des architectes utilisent. Fondamentalement, de tels marchés grand public n’existent pas. Je ne pense pas qu’il soit nécessaire d’attendre de nouvelles normes industrielles ou de s’appuyer sur des bureaux établis.
Notre seul espoir réside dans de nouvelles générations d’architectes désireux de collaborer et prêts à partager leurs connaissances. Le développement de nouveaux outils et de nouvelles plates-formes doit venir de l’intérieur même de cette génération (tout comme cela s’est produit pour l’Internet et l’ensemble de ses plates-formes). La nouvelle génération doit comprendre qu’elle a là une grande occasion d’échapper à la norme actuelle toute tracée de notre profession : cessez de participer à des concours, commencez à participer à des collaborations. Il y a suffisamment d’emplois à pourvoir : actuellement seulement 2% des bâtiments à travers le monde sont conçus par des architectes. Arrêtez d’être en concurrence avec les pratiques établies : découvrez de nouveaux modèles commerciaux, car un grand marché vous attend. Environ 20% du PIB de chaque pays est constitué par le secteur du bâtiment. Nous n’avons pas besoin d’un autre Foster ou d’une autre Hadid — nous avons besoin d’un Zuckerberg de l’architecture, de quelqu’un qui lance un nouveau développement et réinvestisse dans le système. Je suis sûr que nous sommes sur le point de voir une révolution-internet de nos villes sous leur forme physique, ce qui rendra la survie de certains dinosaures laborieuse.

propos recueillis par Sabine Barcucci
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

interview de Philippe Aigrain

L’Internet contemporain se caractérise par le développement constant de nouvelles plates-formes, de moyens de communication, de groupes de défense et de regroupements informels des pratiques. Vous militez pour la liberté numérique depuis les débuts du Web. Alors, tout d’abord je voudrais examiner avec vous ce qui se fait de mieux en termes de cyber-droits. Quelles sont les principales tendances que vous identifiez ?

Philippe Aigrain, network portrait N°1, 2012. Bertram Niessen / realised with Gephi > http://gephi.org. Photo: D.R. / Bertram Niessen.

Permettez-moi de faire un petit détour. L’explosion de la pratique, des outils, de l’expression publique et œuvres de création est tellement gigantesque, que l’on doit faire preuve d’humilité lorsque l’on tente de la définir. Même dans les domaines que j’étudie en détail, je trouve chaque jour de nouvelles formes d’activité créative, de nouvelles communautés de connaissances et de partage culturel, de nouvelles approches techniques ou scientifiques, de nouveaux individus qui abordent les problèmes de façon très personnelle, très singulière. Ils existent depuis un certain temps, mais je ne les connaissais pas. Pour chacun d’entre nous, la partie inconnue d’Internet est beaucoup plus vaste que l’infime partie que nous connaissons.

L’activisme numérique et les cyber-droits ne peuvent être compris qu’en gardant ce contexte à l’esprit. Si l’on observe les grands conflits liés aux droits d’Internet, on peut dire qu’ils opposent ceux qui sont prêts à vivre dans un monde de diversité et de multiplicité et qui essaient d’en faire un endroit plaisant à ceux qui veulent (re)simplifier le monde pour qu’il ressemble au règne de la télévision et de l’industrie culturelle dominante, en limitant le nombre de sources d’expression et d’artistes professionnels, tout en créant une classe professionnelle de politiciens et de chefs d’entreprise. Le problème est que le revers de cette médaille — le monde de la diffusion et du gouvernement influencé par l’entreprise oligarchique — est très actif.

Nous pouvons nous sentir citoyens de l’ère d’Internet, dotés de plusieurs identités et affiliations, un novice enthousiaste dans certains domaines, un contributeur actif dans d’autres et peut-être, de temps en temps, le producteur de quelque chose qui plait au plus grand nombre. Cependant, certains pouvoirs en place trouvent un tel monde très menaçant à leur encontre, parfois à tort, dans la mesure où les médias centralisés ont leur place dans un monde basé sur la distribution. Le pouvoir politique a toute sa place dans un monde de citoyens actifs, mais c’est le fait de ne pas savoir comment la trouver qui les rend très agressifs.

Pour répondre enfin à votre question, l’activisme numérique est comme le reste d’Internet, il comporte plusieurs nuances, qui vont de petits groupes produisant de l’information ou des moyens de coordinations liés à un grand nombre de personnes (comme La Quadrature du Net) à des groupes qui s’organisent de façon beaucoup plus horizontale comme la galaxie (ou la constellation) Anonymous. Mais tous ensemble, nous avons encore un défi à relever. Nous savons comment rassembler des gens pour contrer des lois répressives ou l’appropriation exclusive de connaissances ou de cultures communes. Nous savons comment générer des alternatives concrètes allant du logiciel libre au partage volontaire d’œuvres culturelles, de réseaux P2P aux communautés de partage de connaissances, voire aux réseaux et matériels de télécommunication alternative. Pourtant, lorsqu’il s’agit de la nécessité de créer de nouvelles institutions sociales, une nouvelle politique à l’échelle de la société ou une meilleure organisation économique, nous sommes plus divisés.

La Quadrature du Net, network portrait n°1, 2012. Réalisé par Bertram Niessen avec Gephi. > http://gephi.org. Photo: D.R. / Bertram Niessen.

Les travailleurs de l’économie créative sont coincés dans un paradoxe de droit d’auteur, surtout les jeunes, car pour être « intelligents » et « créatifs », ils ont besoin de consommer d’énormes quantités de biens immatériels — de la musique, des livres numériques, des films et autres œuvres d’art — et de se former sur des logiciels toujours nouveaux; mais le système économique dans lequel ils sont ancrés ne leur donne pas les moyens financiers de tout acheter, ce qui, d’une certaine manière, les oblige à télécharger de manière illégale. Quelles sont les réformes de la propriété intellectuelle nécessaires pour résoudre cette situation ?

Il nous faut un changement de paradigme, au moins pour le partage sur Internet. Nous devons passer du « vous avez accès à ce que vous pouvez acheter » à « vous partagez la culture et y contribuez ». Cela peut se traduire par une réforme du droit d’auteur de la manière suivante : nous devons mettre les pratiques individuelles non-marchandes (à but non-lucratif) à leur place légitime, c’est-à-dire là où elles se trouvaient à l’époque des livres et des disques, hors de portée du droit d’auteur. Lorsqu’une personne a acquis un exemplaire d’une œuvre numérique, le fait de partager cette œuvre avec d’autres personnes sans viser de profit et sans centralisation des contenus ne devrait pas faire l’objet de droits restrictifs (exclusifs). De fait, cela soulève la question de la manière dont nous pourrons pérenniser l’activité créatrice colossale de la sphère numérique, dans ce contexte où le partage non commercial serait reconnu comme un droit. Je crois qu’en complément de ce droit de partage, on se doit de soutenir l’existence d’activités créatives; non pas parce que le partage pourrait leur nuire, mais parce que les œuvres à partager constituent une ressource commune pour tous. Nous y reviendrons dans une autre cette question.

Vous êtes un co-fondateur de La Quadrature Du Net. Votre lutte contre la censure et pour la neutralité du réseau est l’un des exemples plus édifiants de l’activisme numérique européen. Pouvez-vous décrire vos principales actions ? Que préparez-vous ?
La Quadrature du Net est aussi active au niveau français qu’au niveau international (principalement européen). Nous faisons également partie d’un réseau informel qui rassemble des organisations similaires à l’étranger (EDRi, OpenRights, Bits of Freedom, Scambio Etico, Chaos Computer Club, Knowledge Ecology International, Telecomix, pour n’en nommer que quelques-unes). Les premières années (2008-2009), nous étions principalement axés sur la lutte contre HADOPI en France et sur la tentative d’empêcher le détournement de la réglementation des télécommunications par les intérêts du droit d’auteur au niveau européen. Depuis 2010, nous agissons surtout pour défendre et promouvoir la neutralité du réseau et nous nous opposons à l’imbroglio complexe de l’application légale de la répression : l’ACTA, évidemment, mais également la révision de la Directive d’application des droits de propriété intellectuelle et la Directive sur les services d’information ainsi que tous les méandres du « droit mou » de la décision législative et juridique démocratique (filtrage administratif ou saisi de nom de domaine, pression sur les intermédiaires, etc.). En parallèle, nous avons toujours développé des propositions constructives pour la reconnaissance du partage et de nouveaux mécanismes de financement culturels, pour obtenir de meilleures données indépendantes visant l’élaboration de politiques, pour des politiques garantissant la neutralité du réseau, etc.

Dans votre dernier ouvrage, Sharing. Culture and the Economy in the Internet Age (Amsterdam University Press, 2012, www.sharing-thebook.com), vous résumez le débat sur l’opposition entre les biens communs numériques et le piratage. Vous examinez également de nouveaux systèmes de financements possibles qui relient l’économie monétaire aux biens communs non-marchands. Quels principaux systèmes financiers pérennes pourraient convenir aux initiatives indépendantes dans l’art, la musique et le design ?
Dans une situation nouvelle où le partage sera reconnu, nous pourrons commencer à relever le vrai défi de la créativité numérique: On trouve beaucoup plus de gens créatifs à chaque niveau de compétence et de qualité. L’économie commerciale traditionnelle de la performance publique (concerts, représentations théâtrales), des services (enseignement, médiation) ou des ventes de contenus est loin de disparaitre. Il en va de même pour les subventions publiques ou le fait que certaines activités puissent être simplement exercées grâce à l’acquisition de compétences de base (issues de l’éducation) et au temps libre.

Mais si nous voulons que de jeunes travailleurs créatifs (ainsi que chacun d’entre nous) progressent dans l’activité qu’ils ont choisie et soient en mesure d’y consacrer plus de temps, nous avons besoin de nouveaux modèles de financement. Ceux-ci peuvent principalement reposer sur un financement volontaire et participatif comme Kickstarter. Cependant lorsqu’on regarde l’ampleur des besoins, une mise en commun de ressources à l’échelle de la société est tout aussi indispensable. La grande différence, c’est qu’il peut s’agir d’un forfait raisonnable, d’environ 5€ par mois et par catégorie d’abonné à Internet en haut débit (voire d’une solution progressive si cela s’avère nécessaire), et que cette mesure doit être séparée des droits de partage (aucun contrôle nécessaire). De nombreuses questions se posent quant à la mise en œuvre et la gestion de cette économie, j’en parle dans mon livre, mais ces problématiques sont gérables. L’un des principes de base est que les contributeurs (les internautes individuels) devraient être habilités à décider de l’utilisation des sommes recueillies pour financer de nouveaux projets ou de nouvelles œuvres et rémunérer ceux qui ont contribué aux œuvres partagées. Dans le premier cas, le critère reposerait sur leurs préférences (allocation aux organisations et projets concurrents), dans le second (la rémunération) sur le fait que des utilisateurs volontaires fournissent des données anonymes quant à leurs pratiques de partage.

interview par Bertram Niessen
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

Philippe Aigrain est un chercheur français, militant du Free Software Movement. Son travail pendant les années 1990 a contribué à l’élaboration des lignes directrices des politiques du logiciel libre dans l’Union européenne. Il est administrateur du Software Freedom Law Center, une organisation qui offre une représentation juridique pro bono, à but non lucratif, aux développeurs de logiciels libres et en open source – et garant du NEXA Center for Internet and Society. Aigrain est également co-fondateur de La Quadrature du Net, organisation française pour la défense des droits d’Internet qui joue un rôle majeur dans la lutte nationale et internationale contre les lois de droit d’auteur restrictives et les traités tels qu’HADOPI et ACTA.

interview de Marc Dusseiller

Séance de travail / Lab. Photo: © Hackteria. > www.hackteria.org

Pourriez-vous me parler de l’histoire d’Hackteria et de la manière dont elle a évolué au fil des ans ?
Nous nous sommes rencontrés tous les trois à Madrid à l’occasion d’un grand workshop, organisé par le Medialab Prado et qui s’appelait « Interactivos?09: Garage Science », sur la manière dont l’open source et l’approche scientifique citoyenne peuvent changer la société. Au cours de ce workshop, nous avons conclu que nous avions besoin d’une organisation et d’activités aptes à combler l’écart entre les pratiques populaires du bio-art et l’approche scientifique émergente du DIYbio/citoyen. Yashas a par la suite trouvé ce drôle de nom : Hackteria. Nous avons organisé le premier workshop Hackteria à Berlin sur la façon d’utiliser la microscopie DIY (à faire soi-même) pour des interfaces sonores. En 2010, HackteriaLab a lancé une série de rencontres entre experts, pour évaluer ce qui a été accompli et initier de nouvelles collaborations. En ce moment, à Lucerne, Urs Gaudenz travaille en étroite collaboration avec SGMK sur de nouveaux workshops relatifs aux infrastructures de laboratoire. Ensuite, il y aura Brian Degger qui a co-fondé un hackerspace à Newcastle comprenant de nombreuses expériences bio-ludiques, puis Rudiger Trojok, un geek DIYbio allemand qui viendra en avance à Copenhague pour préparer des workshops dans le hackerspace local, BiologiGaragen. Enfin, il y aura Denisa Kera, qui est en train d’initier une sorte de collaboration entre Brmlab, un hackerspace basé à Prague, et le hackerspace de Singapour.

Pourquoi Hackteria attache tellement d’importance au monde extérieur aux laboratoires ?
Au lieu d’avoir un seul laboratoire scientifique citoyen, conçu comme un hackerspace typique, nous avons développé une stratégie de laboratoires mobiles qui peuvent être installés et transportés partout dans le monde: dans des ateliers d’artistes, des centres d’art, ou des lieux inattendus comme la jungle ou même des rues d’Indonésie où nous avons d’ores et déjà réalisé et développé quelques expériences scientifiques. Les laboratoires mobiles nous aident à comprendre la manière dont ces technologies du futur vont interagir et influencer notre pratique et notre vie quotidienne dans des contextes très variés. La plupart des travaux d’Hackteria sont axés sur les processus et sont en mode ouvert. Nous aimons improviser dans de nouveaux lieux et avec de nouvelles personnes, ce qui a débouché souvent sur des projets créatifs et inattendus. Faire de la « science » et expérimenter avec des technologies à la manière DIY, en pleine rue, dans des centres d’art ou d’autres lieux nous aide à appréhender les défis, les limites et la façon de créer des outils et des processus qui permettent à plus de gens de profiter de la recherche et de bidouiller grâce à un savoir « expert ».

Pourriez-vous décrire quelques-uns des projets récents d’Hackteria qui incarnent ce type de vision et de pratique ?
Plus d’une douzaine de personnes contribuent à notre wiki en décrivant leurs projets en cours de production. En ce moment, il y a plus de 45 projets, allant d’instructions simples sur la façon de construire une infrastructure de laboratoire jusqu’à des descriptions plus sophistiquées de protocoles de laboratoire sur les méthodes de travail appliquées aux différents systèmes vivants. Vous pouvez y apprendre quelques techniques DIY de base pour cultiver des bactéries et des algues ou bien démarrer votre projet personnel de microscopie avec un simple jeu d’instructions pour transformer une webcam ou un appareil photo Eye Playstation3 bon marché en microscope bricolé. Le projet de microscopie est non-seulement très populaire, mais aussi très utile pour les amateurs de science, les artistes, mais aussi les habitants de pays en voie de développement qui ont un accès limité au matériel de laboratoire coûteux. Le projet de microscopie est également un bon exemple de la façon dont nous travaillons, nous aimons pirater l’électronique et les outils grand public pour les utiliser différemment. Nous transformons ces symboles de notre asservissement à l’industrie des médias en matériel de laboratoire émancipateur, permettant à chacun de découvrir et d’observer la nature et en particulier le monde des micro-organismes.

Ars Daphnia Circus. Photo: © Hackteria. > www.hackteria.org

Dans quelle mesure avez-vous constaté le développement d’autres thèmes et pratiques au cours de ces années ?
Nous avons entamé d’autres projets en bio-électronique mais nous comptons également poursuivre notre travail sur la microscopie DIY et la biologie synthétique. Nous aimerions faire des expériences avec des biocarburants et à cet effet nous construisons, grâce à Arduino, un bioréacteur qui servira à cultiver des algues. Beaucoup de nos membres restent très engagés dans la fermentation de vins et divers projets relevant du jardinage. Le projet de microscopie évoluera probablement vers des tentatives d’impression 3D de champignons ou de bactéries à l’aide d’une bio-imprimante. Les outils de laboratoire, tels que les incubateurs, les pipettes ou les centrifugeuses sont encore au cœur de nos activités, parce qu’il me semble essentiel de pouvoir mettre en place un laboratoire où que l’on se trouve. Au cours de l’année dernière, j’ai construit des kits simples pour « lab-in-a-box », une valise portable de biohacker. En Janvier dernier, en Indonésie nous avons même transformé une camionnette ambulante de vente de nourriture en un biolab semi-fonctionnel, avec lequel nous avons réalisé des expériences scientifiques simples qui utilisaient des microscopes, la stérilisation, mais aussi des expériences de gastronomie moléculaire, comme la sphérification.

Pourriez-vous expliquer ce qu’est l’art biologique en Open Source et en quoi il se rapporte à la biologie DIY ?
Qu’il s’agisse d’un wiki ou d’un workshop, cela n’a pas vraiment d’importance, ce qui compte c’est de permettre aux personnes de collaborer et de partager des connaissances et des instructions. L’Art Biologique en Open Source permet aux gens d’effectuer des protocoles scientifiques complexes sans l’appui d’une institution officielle. Nous croyons qu’il est important de rendre davantage de personnes confiantes lorsqu’elles sont amenées à travailler sur des systèmes vivants pour faire émerger de nouvelles idées créatives. Lorsque cela s’applique à la science et à l’art, un nouveau type de participation du public et de compréhension de ces deux domaines peuvent ainsi voir le jour. Actuellement, les artistes partagent peu d’informations précises sur le processus de fabrication de leurs pièces. Ils pensent volontiers que la documentation de leur mode opératoire n’est pas importante et que le rôle du public est d’être simple spectateur, consommateur passif et admirateur de leurs œuvres. À cet égard, les soi-disant bioartistes rappellent ces scientifiques qui construisent leurs tours d’ivoire. Nous trouvons que c’est archaïque et déplacé, car cela donne la fausse impression que la science et l’art sont pratiqués par quelques experts et membres d’une élite qui décident de notre avenir. Notre approche est radicale, nous souhaitons que tout le monde soit activement impliqué dans l’avenir de la biologie et de la science et que les amateurs, les bidouilleurs et les hackers aient un accès équitable aux outils de « production » d’art et de science.

Pourquoi est-il important de combler le fossé entre artistes et scientifiques et comment ceci est-il lié aux débats sur la relation entre experts et amateurs ?
Je m’intéresse beaucoup à l’amélioration de la communication scientifique et à la participation du public aux sciences de la vie. Je voudrais voir apparaître une démocratisation de la science qui fasse directement appel aux citoyens au lieu d’abandonner le débat à quelques ONGs, à des médias ou des professionnels de la communication scientifique qui, en tant que porte-paroles, édulcorent leur opinion. Mon espoir est qu’en permettant à davantage de gens de faire de la science dans leurs garages, leurs cuisines et leurs salles de bains, et en permettant à davantage d’artistes, de designers et de passionnés de travailler tout simplement sur divers projets scientifiques, nous pourrons aboutir à ce que le public maîtrise la culture scientifique et rende démocratiques les décisions sur les cellules souches embryonnaires, les OGM, les nanotechnologies, etc.

Maja Spela Incubator. Photo: © Hackteria. > www.hackteria.org

Quel est votre rapport à la scène du DIYbio ? Sur quel type de projets avez-vous collaboré et en quoi êtes-vous différents ?
Hackteria a rejoint le mouvement mondial du DIYbio dès le départ et nos activités ont toujours été menées de front. Il y a deux ans, alors que DIYbio.org débutait à peine, j’ai rencontré Mac Cowell, le fondateur du mouvement, et je l’ai invité à l’une de nos universités d’été. Nous collaborons et nous nous entraidons assez fréquemment. La différence réside peut-être en ce que DIYbio.org ressemble davantage à une liste de diffusion dotée de nombreuses fonctions alors que nous sommes avant tout un wiki qui dispense des conseils pratiques pour fabriquer des choses, mais nous organisons aussi de nombreux workshops et événements, ce qui intéresse moins le noyau dur du mouvement DIYbio. Par ailleurs, ils sont beaucoup plus tournés vers la science et l’aspect commercial alors que nous travaillons plutôt avec des artistes, des designers et même des philosophes. Les ressources éducatives et le wiki d’Hackteria sont essentiels pour aider les artistes et les designers à gagner en confiance pour pouvoir ensuite rejoindre une liste de diffusion liée aux sciences, poser des questions plus pertinentes et communiquer avec des scientifiques. La relation entre Hackteria et DIYbio crée cette belle synergie et la possibilité de soutenir des collaborations uniques.

Pourriez-vous expliquer votre vision de la relation idéale entre scientifiques professionnels et scientifiques citoyens ?
Lorsque j’ai rendu visite pour la première fois à Yashas, en Inde, j’ai réalisé à quel point le travail DIYbio que nous faisions dans les pays en développement est important. Le matériel scientifique y est trop cher et les publications scientifiques quasiment inaccessibles. Le wiki Hackteria permet aux étudiants de ces pays d’acquérir des compétences en matière de recherche grâce aux quelques outils DIY que nous avons développés (et nous développons constamment de nouveaux outils). Beaucoup de nos membres sont en fait des scientifiques professionnels qui ont pris le défi du DIYbio au sérieux. Ils prennent du plaisir à développer des instructions et des outils destinés à ceux qui, pour diverses raisons, n’ont pas de moyens suffisants ou d’accès à un espace laboratoire professionnel. Les outils DIYbio n’aboutiront sans doute jamais à une recherche de pointe, mais ils jouent un rôle essentiel dans la formation de scientifiques et finalement de tous ceux qui essaient de comprendre ce qui se passe dans les laboratoires scientifiques professionnels. Les protocoles et les outils DIYbio sont des moyens d’émancipation pour la science, un genre de liberté individuelle et même le droit de développer sa propre relation aux connaissances scientifiques et d’essayer de nouvelles choses pour pouvoir se forger une opinion éclairée sur ces questions. Le fait de pirater et de fabriquer des outils bon marché pour commencer son propre laboratoire et son infrastructure a pour but de démocratiser la science en ce sens. Une opportunité est ainsi créée pour les pays en voie de développement d’améliorer leur enseignement des sciences et de la recherche adapté à leur besoin, et non pas à quelques chroniques pour initiés dans les pages d’une revue occidentale de toute façon inaccessible.

Quelles sont les personnes qui participent à vos ateliers ?
Cela dépend du lieu et de la situation géographique. Si c’est un festival d’arts des médias, la majorité des participants sont des artistes « tournés vers la technologie et les sciences” et quelques ingénieurs qui travaillent sur un projet artistique, mais surtout ceux qui n’ont pas beaucoup d’expérience en matière de biologie, de sorte qu’ils cherchent à apprendre et découvrir des choses nouvelles dans un environnement convivial. Nous travaillons aussi parfois avec des enfants. En Inde ou en Indonésie, nous avons également réussi à attirer les villageois et les communautés locales et nous travaillons régulièrement avec des organisations locales de ces pays dont les objectifs sont similaires. En Indonésie, il existe des organisations telles que HONF (House of Natural Fiber) et Lifepatch.org qui travaillent souvent avec des agriculteurs locaux et utilisent certaines méthodes d’Hackteria, comme notre microscope bricolé à partir d’une webcam ou des protocoles destinés à la fabrication de vin et d’engrais. Yashas travaille également en collaboration avec des villageois indiens en enseignant la manipulation génétique et la biologie synthétique à l’aide de bandes dessinées qui s’adressent au grand public.

Plant Smela. Photo: © Hackteria. > www.hackteria.org

Parlez-nous de vos projets personnels avec Hackteria…
Ces deux dernières années, j’ai beaucoup travaillé en Slovénie sur les nanotechnologies et la biologie, avec Kapelica Gallery, une institution de premier plan, à la croisée de l’art et de la science. Nous avons commencé avec le projet NanoSmano en 2010, un laboratoire participatif invitant le public à des expériences avec les nanotechnologies et leur potentiel esthétique. Pendant deux semaines, un petit groupe d’experts scientifiques et d’artistes ont travaillé sur le développement de prototypes de nanotechnologie et le laboratoire a été ouvert au public. Avec Kapelica nous prévoyons également une série de workshops avec des enfants et nous mettons en place un laboratoire mobile. Je suis également actif en Indonésie où, au cours des trois dernières années, j’ai organisé des workshops sur la microscopie DIY, la fermentation, la sensibilisation des écoles locales à la science, mais aussi des événements avec la scène artistique florissante, mêlant science et VJing. En même temps, un nouveau projet appelé Lifepatch.org a été lancé. C’est une initiative citoyenne d’art, de science et de technologie dotée d’un wiki très semblable au nôtre, mais rédigé en indonésien; ainsi nous coopérons sur de nombreux projets. Il est très gratifiant de voir la manière dont le réseau se propage, d’assister à sa mutation et son interaction à travers le monde.

Quel est votre point de vue sur l’avenir de la science citoyenne ?
Mon espoir est que si plus de gens fabriquent eux-mêmes des choses, en ayant une expérience directe et quotidienne des protocoles scientifiques, nous pourrons démystifier la science et ouvrir l’ensemble du processus de décision à davantage de personnes et d’opinions. Je pense que c’est la société du futur, celle dans laquelle je souhaite vivre, un endroit où des bricoleurs et des citoyens ordinaires pourront trouver de nouvelles utilisations et des fonctions inattendues à des technologies et des connaissances scientifiques, les pirater et les adapter à leurs rêves et à leurs vies sans attendre qu’une grande entreprise ou qu’un gouvernement décide de ce qui est bon ou sûr pour eux. Parce que je travaille aussi en tant qu’éducateur, j’ai l’occasion de voir comment l’attitude à l’égard des changements scientifiques se transforme par le biais de l’expérience directe. Je pense que les institutions scientifiques devraient consacrer plus d’argent à enseigner la pratique de la science et ouvrir leurs laboratoires au public, au lieu de payer des spécialistes en communication scientifique pour mener des campagnes de relations publiques qui ne font qu’amplifier les soupçons à leur encontre.

propos recueillis par Sara Tocchetti
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

Hackteria est un réseau de personnes qui pratiquent la biologie DIY axé sur l’art, le design et la coopération interdisciplinaire. Le réseau a été fondé en 2009 par Yashas Shetty, Andy Gracie et Marc Dusseiller et comprend maintenant non seulement des scientifiques, des ingénieurs et des artistes, comme on peut s’y attendre, mais aussi des philosophes, des entrepreneurs et même des gourmets et des chefs. Hackteria opère à l’échelle mondiale sur une plate-forme Internet et un wiki dédiés au partage des connaissances, permettant à quiconque d’apprendre, mais aussi de tester différentes façons de pirater des systèmes vivants. Hackteria ne repose pas sur un espace physique et son objectif est de permettre à des artistes, des scientifiques et des hackers de collaborer et d’essayer différentes techniques de biohacking et de bio-art en dehors des laboratoires officiels et des institutions d’art, quasiment n’importe où dans le monde. Site: www.hackteria.org

Dissection de l’auteur

Le questionnement du système de l’art par la critique institutionnelle, la posture politique du situationnisme, l’amalgame de l’art et de la vie par John Cage et Fluxus, le « système D » du punk : tous ces vecteurs semblent converger dans la recherche de Mattin (musicien et artiste basque). Si son travail est centré sur le bruitisme et l’improvisation, Mattin nous pousse à explorer leurs limites et leurs contradictions en interrogeant les formes établies, les pratiques, les conventions et les contextes.

Mattin live @ MEM festival, Bar Bullit, Bilbao, 18/12/2003. Photo: D.R.

Son approche auto-réfléchie et méta-contextuelle ne se contente pas de déconstruire le langage de la musique visant à explorer le cadre social, politique et économique de la production et de la réception. C’est un déplacement de l’intérêt de la forme musicale vers la sphère extramusicale qui se reflète à tous les niveaux : le concert (conçu comme un système de relations forcées et perturbées), les moyens de production et de distribution (il dirige trois labels militants de l’anti-copyright, chaque œuvre étant disponible gratuitement : la série Free Software, dédiée aux pièces réalisées à l’aide d’un logiciel libre, w.m.o/r et le netlabel Desetxea). Plus important encore, la notion même de droit d’auteur (et par conséquent de propriété intellectuelle) est ramenée à ses racines historiques et littéralement disséquée. À travers des voies impersonnelles d’expression, les performances de Mattin s’opposent à l’idée de créativité individuelle. En assumant les contradictions et en fragmentant les attentes et les rôles préconçus, Mattin tente de dévoiler la manière dont des contextes, les situations et la subjectivité sont construits en les utilisant comme matière première de l’improvisation et en cherchant à sonder le système de la musique expérimentale et de ses relations avec la société capitaliste. En fin de compte, il s’agit d’examiner notre société elle-même.

Vous déclarez sur votre site Web: je n’assume aucune responsabilité pour le pronom « Je » en tant que réceptacle d’un auteur individuel. Ceci nous conduit immédiatement à l’une des notions les plus controversées de la critique esthétique, de l’art et de la musique : l’auteur. Cela s’applique-t-il à votre pratique créative ? Comment le bruitisme et l’improvisation peuvent-ils remettre l’auteur en question ?
La notion de créativité est très problématique, car elle présuppose qu’une personne apporte de la nouveauté ou de l’originalité. Cela engendre une série d’attentes et de divisions ultérieures du travail : on associe cette créativité aux personnes ayant des rôles spécifiques (comme les musiciens ou les artistes) ce qui instaure inévitablement des hiérarchies entre les différents niveaux d’activité, où l’activité du public devient mineure (ou instrumentalisée par une forme d’appropriation par l’artiste).
Dans l’improvisation, la liberté se rapporte à cette conception de la créativité : les improvisateurs sont libres d’utiliser leurs instruments de manières supposées être uniques ou originales. Cette vision de la liberté me semble très limitée et, qui plus est, individualiste dans le sens où les limites se placent dans son propre ego et celui des autres improvisateurs, ce qui instaure une séparation analogue à de la subjectivité libérale : laissez-moi être « libre », tant que je peux exprimer ma « liberté ». Si nous examinons les règles implicites de l’improvisation, il est clair que chaque artiste permet aux autres de faire ce qu’ils veulent tant qu’ils n’interrompent pas son processus de « création ». Les improvisateurs ne sont, en réalité, pas si ouverts que ça; particulièrement si l’on essaie de provoquer un type d’interaction différent, plus intersubjectif.
Le côté informel et la soi-disant liberté dans l’improvisation peuvent entraîner beaucoup de mysticisme et d’obscurantisme, une opacité qui rappelle l’abstraction conceptuelle dans la notion d’auteur ou la forme des produits de consommation. Avec quelques personnes, nous avons essayé de détacher cette notion de créativité de l’improvisation. Nous concevons l’improvisation comme un élément générique sans mise en relief de l’individualité, dans laquelle les expressions impersonnelles ou les gestes génériques produisent une performativité radicale et non-réflexive, dans la mesure où elle ne revient pas vers vous en tant qu’individus (ou, au moins, elle révèle la structure des rôles individuels).

La déconstruction des contextes et des rapports de réception et de production semble être centrale dans votre pratique. Je me souviens avoir assisté à l’un de vos concerts à Berlin et n’y avoir perçu qu’un bruit de fond…
Ce concert était une tentative de travail sur des idées mentionnées ci-dessus, où les décisions structurelles révélaient des attentes, des rôles et des relations de pouvoir informels dans un contexte précis, tout en essayant de produire une « équalisation » radicale des sons (ne pas donner plus d’importance à l’un ou à l’autre) et sans distinction entre l’activité et la passivité (aucune neutralité dans n’importe quel élément de la situation). Je n’étais pas présent, ce qui, pour un concert improvisé peut être considéré comme sacrilège, parce que je n’étais pas là pour exprimer ma liberté, mais j’y avais participé par le biais de décisions préparées à l’avance : le public restait dans un espace totalement obscur pendant une heure, ensuite la lumière s’allumait et on diffusait l’enregistrement des personnes présentes dans la salle durant la première heure.
Pendant la diffusion de cet enregistrement, la moitié des recettes des entrées était censée être disposée au milieu de la salle (nous étions deux à l’affiche ce soir là) et les auditeurs (ou les performeurs, quelque soit la façon dont on préfère les nommer) pouvaient prendre de l’argent s’ils le désiraient. Cependant, Mario De Vega, l’un des organisateurs, estimant que les 20 euros récoltés à l’entrée n’étaient pas suffisants, n’a pas mis cet argent à disposition. Ce qui s’est avéré intéressant pour moi, c’était la façon dont les relations informelles de pouvoir ont resurgit. Je pense que si Mario n’était pas lui-même artiste, il aurait juste placé l’argent selon les instructions, mais étant artiste et organisateur doté d’un certain pouvoir sur la situation, il l’a exprimé sous la forme de décision esthétique qui a saboté la mienne.
Quelques jours plus tard, j’ai participé à un débat public intitulé pourquoi je ne suis pas venu à mon concert. Nous avons examiné les questions soulevées par ce concert, certaines étaient vraiment dures. Cela m’a vraiment permis de me rendre compte de la difficulté de remettre en question le statut de l’auteur en étant soi même auteur. La discussion s’est totalement retournée contre certaines des intentions du concert. En conséquence, je travaille maintenant dans l’anonymat tout en essayant d’utiliser Mattin comme matière à expérimentation et improvisation.

Dans un scénario culturel où l’interaction collective s’impose comme règle de production et de consommation, la tentative de l’avant-garde d’émanciper les spectateurs grâce à la participation semble être absorbée par le système. Votre travail questionne souvent la distinction entre artiste et public. Dans un texte récent, vous présentez la notion d’ »auteur gestionnaire » pour souligner la façon dont les pratiques participatives, tout en essayant de surmonter la distinction entre production active et consommation passive, peuvent finalement devenir une prothèse des courants capitalistes (1).
Cela tient de l’instrumentalisation et de l’agencement : dans quelle mesure l’artiste permet-il un renversement des paramètres conceptuels qui sous-tendent une situation ? Dans quelle mesure l’artiste permettrait-il à une situation de s’effondrer si la participation allait assez loin ?
En écrivant ce texte, je craignais qu’il soit perçu comme moralisateur, comme si il y avait qu’une façon nette et tranchée de se lier à d’autres personnes. Ce n’est pas mon intention, il y a toujours un niveau de manipulation en jeu et il s’agit alors de savoir ce que l’on en fait. Doit-on essayer d’assimiler la notion d’auteur ou de la démanteler en démontrant sa fausseté ?
De ce fait, les concerts que je donne (le « je » étant toujours à questionner) sont des situations qui présupposent que :

  1. a) le public n’est pas neutre
  2. b) le concert est une relation de pouvoir avec des intérêts et des positions inégaux dans la situation
  3. c) néanmoins, les positions ne sont pas figées et peuvent être modifiées ou radicalement questionnées, non pas comme une forme de libération, mais comme une chose autre.

Fondamentalement, il est inintéressant de donner l’impression d’un spectateur libéré ou émancipé par une forme de participation, mais lorsqu’on produit des situations dans lesquelles on est coupés de nos rôles et démuni d’outils pour y faire face, on se sent à nu et vulnérables. Cela relève davantage de l’aliénation et il faut se demander comment l’aliénation est induite, tant au sens général que dans une situation spécifique. Un simple concert ne peut nous libérer, mais nous pouvons explorer la manière dont nous sommes prisonniers des attentes et de conditions artificielles, ce qui revêt toujours un intérêt particulier. Une condition préalable pour changer les choses pourrait résider dans l’effort de compréhension de leurs propres effets et de leur construction.

Mattin live @ Guardetxea, Donosti 07/08/2010. Photo: © Mikel R. Nieto.

Qu’en est-il de votre implication dans le mouvement Anti-Copyright ?
Je ne parlerai pas de mouvement. Il s’agit davantage d’une attitude face à la propriété intellectuelle. Si, grâce à l’improvisation, on remet constamment en question les paramètres de ce dont on traite, alors il est normal de questionner la transformation d’une activité en propriété.
Dans une récente conversation avec Rasmus Fleischer, nous avons abordé les jonctions entre l’obscurité de certains concepts tels que la musique et la notion d’auteur. Elles se sont développées simultanément avec la notion d’expérience et d’esthétique et l’émergence des formes de produits de consommation (i.e. au XVIIIe siècle). Nous considérons ces concepts comme naturels, comme s’ils avaient toujours été là, mais ils sont issus de développements spécifiques à des modes de production, de discussions philosophiques, de la façon dont la notion d’individu et sa relation à la loi se sont édifiées.
Le système juridique qui renforce la propriété repose sur une subjectivité bourgeoise qui conçoit la liberté comme une séparation entre les individus et leur communauté et des individus entre eux. D’un point de vue historique, Marx considère cela comme une excroissance de la Déclaration des droits de l’homme, qui valorise ces séparations. La loi, au lieu de préserver notre liberté, devient un résultat idéologique de l’égoïsme et de l’atomisme, reproduisant ainsi une appréhension de la liberté nécessaire à l’épanouissement du capitalisme. Étant donné que le mode de production capitaliste repose sur des salariés libres de vendre leur puissance de travail, les travailleurs ne possèdent peut-être pas tous les moyens de production, mais il leur reste leur corps et la soi-disant égalité politique et juridique. Plutôt qu’être le sujet des droits, les individus deviennent alors leurs objets et sont, en outre, dégradés et isolés en tant que tels.
De même, les produits de consommation sont des objets égaux aux yeux du marché. Cela montre la manière dont les droits de l’homme et de la propriété sont entièrement liés par l’idéologie de la subjectivité bourgeoise, garantie par la sécurité de la police. La stabilité était tout aussi nécessaire afin de développer une appréhension spécifique du temps : le temps de travail abstrait et homogène qui peut être mesuré par le biais de sa productivité et doté d’une valeur. C’est dans ces conditions présentes que la notion d’auteur pourrait obtenir une certaine pertinence, mais aujourd’hui nous sommes en mesure d’identifier la fausseté du concept. Par exemple, par des moyens technologiques et numériques, comme les logiciels libres, qui ne tiennent aucun compte de l’individualité en tant que source de production et de distribution.

Puisque nous en venons à la série Free Software : pourquoi avoir décidé de fonder un label axé sur les logiciels libres ?
Le label était lié à l’émergence de l’utilisation du logiciel libre par différents acteurs de la musique expérimentale. La majorité de ceux qui utilisent les logiciels libres ont clairement conscience de remettre en question les notions de propriété intellectuelle, mais leurs positions à son égard divergent. Alors, l’une des conditions préalables pour sortir une œuvre sur ce label était de clarifier cette position (anti-copyright, copyleft, licence GNU ou toute autre forme de posture). Il s’agit de faire progresser le débat à ce sujet. D’autre part, des gens curieux, comme Taku Unami, susceptibles de posséder un ordinateur équipé d’un système d’exploitation Mac ou Windows et un autre de GNU/Linux souhaitent essayer plusieurs pratiques. Quand ces artistes sont invités à sortir quelque chose sur le label, ils doivent utiliser l’ordinateur équipé de GNU/Linux. Les moyens de production de la musique expérimentale ont des répercussions idéologiques qui, à mon avis, devraient être discutés plus amplement.

Vous avez développé certaines de ces problématiques à l’écrit, en particulier dans le livre Noise & Capitalism  (2). Souhaiteriez-vous y effectuer des ajustements 3 ans plus tard ? Quel est le potentiel critique dans la production de musique aujourd’hui ?
J’ai commencé à écrire ce livre en août 2006. Depuis, la crise est survenue, bon nombre de luttes ont eu lieu. Ce livre a été un moyen de me rendre compte qu’il n’y a rien d’intrinsèquement critique dans les sons abstraits. La critique découle de la prise de conscience de la façon dont ils sont produits et perçus. Il est devenu évident qu’à l’heure actuelle, le bruit et l’improvisation n’ont pas grand chose à offrir sur le plan politique. Cependant, certaines propositions conceptuelles, dans leurs intentions, invitent encore à des explorations plus poussées; ce qui peut être pertinent au regard des discussions politiques contemporaines.
Par exemple, l’improvisation s’apparente à la notion de « communisation »; d’un communisme par l’action tout en abolissant simultanément la propriété, les relations salariales, les relations entre les genres, les sphères privées et publiques et la théorie de la valeur du travail, sans pour autant nécessiter un programme, des ordonnances ou toute autre forme de médiation. Toutefois, à cet effet, nous aurions besoin d’examiner en profondeur les conditions matérielles et idéologiques qui semblent périphériques à l’improvisation et à la production de musique expérimentale, mais qui sont en réalité sa raison d’être.

Anti-Copyright
interview par Elena Biserna
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

(1) Mattin, Managerial Authorship: appropriating living labour (Casco Issues 12, Sept. 2011).
(2) Anthony Iles, Mattin (eds), Noise & Capitalism (Donostia-S.Sebasti, Arteleku Audiolab, 2009). www.arteleku.net/audiolab/noise_capitalism.pdf

Deux révolutions technologiques ont fondamentalement changé le monde au cours du dernier quart de siècle, l’une dans les Technologies de l’Information et des Communications (TIC) et l’autre dans la biotechnologie. La première est beaucoup plus connue, car elle fait partie intégrante de la vie quotidienne des habitants des pays développés. Son impact est immédiat et omniprésent.

Free Range Grain. Photo: © Critical Art Ensemble.

Les employés des entreprises de services, les bureaucrates, les technocrates, les hommes d’affaires et les étudiants consacrent une part croissante de leurs heures éveillées à rechercher sur un écran ou taper sur un clavier. La biotechnologie est en apparence beaucoup moins omniprésente. Elle semble éloignée de la vie quotidienne parce que son développement et sa production se déroulent derrière les portes closes du laboratoire et ne sont compris que par un groupe d’experts scientifiques. Comme nous le verrons plus loin, cette vision, bien que correcte, est en réalité limitée. Le Critical Art Ensemble va même jusqu’à dire que si la révolution des TIC est beaucoup plus spectaculaire, la révolution biotechnologique est assurément plus profonde et tout aussi omniprésente.

Le Critical Art Ensemble se rend compte que cette affirmation est très audacieuse, car d’un simple coup d’œil tout un chacun peut voir à quel point les TIC ont révolutionné le monde. Plus important encore, elles ont rendu possibles une forme définitive de capitalisme (le pan-capitalisme), une hégémonie économique d’envergure mondiale. Les marchés mondiaux imbriqués et interdépendants sont désormais une réalité dont découlent des institutions mondiales et transnationales qui ne fonctionnent sous aucune autre autorité que la leur. Avec l’utilisation de la virtualisation croissante de toutes formes dominantes de l’activité humaine — si nous parlons d’échange économique, de guerre, de divertissement, ou de sociabilité — même à un simple niveau, le pan-capitalisme réussit à produire une idéologie générale dominante à l’échelle mondiale (le néolibéralisme), dans laquelle les catégories d’entreprise et de profit sont devenues le prisme à travers lequel toute valeur est mesurée. Compte tenu de cet enveloppement spectaculaire, incontournable, idéologique et économique rendu possible par les TIC, comment ne pas admettre qu’il s’agit là de la plus importante des révolutions ?

Le Critical Art Ensemble pense que, comme pour tous les phénomènes spectaculaires, cette révolution est réductible à une question de quantité. La révolution (numérique) des TIC nous a finalement apporté le même genre de choses, mais sur une échelle beaucoup plus grande. Ainsi, bien que nous n’ayons jamais vu auparavant d’empire, de spectacle, ou de marchés mondiaux, nous avons vu des empires, spectacles, et marchés à grande échelle. D’autre part, la biotechnologie n’est pas seulement étendue dans ses nombreuses manifestations, elle est également véritablement nouvelle. Si l’on se base sur la quantité, la biotechnologie touche à tout ce qui est organique, ce qui la rend véritablement globale. Par exemple, son impact est constant dans la chaîne de l’approvisionnement alimentaire. En termes de vie quotidienne, les produits issus de la biotechnologie sont omniprésents, de nos cuisines à nos armoires à pharmacie et notre corps. Pour un petit groupe de personnes, la biotechnologie est la raison même de leur existence. Cependant l’importance réelle des biotechnologies repose sur leur qualité.

Le pan-capitalisme, comme toute autre forme de pouvoir avant lui, n’a jamais été en mesure de contrôler pleinement l’intériorité humaine. Il peut envelopper le corps et la conscience et essayer d’y faire pénétrer ses impératifs, mais il n’a jamais été capable de contrôler la pensée ou le désir de manière fiable. Certes, il a fait de grands progrès pour assoir sa position, mais aucune formule magique n’a jamais poussé les gens à désirer ce dont ils n’avaient pas besoin, ni à devenir serviles sans résistance. Même la plus simple des campagnes de publicité n’est jamais assurée de fonctionner. Elle peut parvenir à déplacer les désirs fondamentaux généralement ancrés dans les besoins humains, comme la nourriture, le sexe, le logement, l’appartenance et des états alternatifs de conscience sur des articles superflus, mais cela fonctionne uniquement sur du court terme et finit souvent par échouer complètement. Le flux continu de groupes de réflexion qui accompagne les campagnes de publicité est une preuve irréfutable de la conscience du capital vis-à-vis de cette incertitude. La biotechnologie peut aider à optimiser ce processus, non seulement par le biais des humains. Elle peut grandement aider à re-codifier tout système organique et toute créature afin qu’ils puissent davantage se conformer aux impératifs du pan-capitalisme.

Free Range Grain. Photo: © Critical Art Ensemble.

De nouvelles avancées dans la biologie moléculaire ont démarré ce ré-encodage de la vie. Pour revenir à l’homme, ces éléments intérieurs de la conscience que nous pensions impénétrables sont à présent un territoire ouvert. Les moyens de prendre les impératifs du néolibéralisme et de les transformer en prédispositions qui pourraient pousser vers l’extérieur pour établir des liens avec les indicateurs actuels qui poussent vers l’intérieur. Étant donné la propension du capital à optimiser et rationaliser tout ce qui y touche, on peut être certain que l’intériorité du corps est dans sa ligne de mire.

Depuis longtemps, le capitalisme a montré son intérêt pour une vie régie par l’ingénierie dont la plus grande férocité s’est manifestée dans le mouvement eugénique du début du XXe siècle. Le désir de déplacer les processus tâtonnants et aveugles de l’évolution et de les remplacer par des choix rationnels en phase avec les besoins du capitalisme est un rêve persistant. À présent, les connaissances et les moyens d’y parvenir sont disponibles. Déjà, de nombreuses espèces vivantes sont ré-encodées. Toutefois, la réponse à des besoins de puissance et la sélection pour la survie sont deux choses différentes. La sélection ne peut être que spéculative et comprise a posteriori, elle ne peut donc être conçue à l’avance, de sorte qu’on ne sait jamais quel genre de bénéfices ou d’inconvénients les ingénieurs apportent à des espèces données ou même à un système écologique. Même si ce problème était en quelque sorte évitable (et compte tenu des antécédents du capitalisme, ce serait surprenant), on peut être assurés que le capital vise à privatiser la vie elle-même. Une pensée alarmante, et un processus déjà bien entamé.

En dépit de ces tendances cauchemardesques, sous-produits du néolibéralisme, la biotechnologie pourrait avoir des conséquences utopiques. Si elle pouvait être retirée du contrôle des sociétés transnationales et des organisations militaires, elles pourraient être réorientées pour un travail d’intérêt commun. Pour ce faire, la biotechnologie doit être repensée et réutilisée comme autre chose qu’un outil de colonisation de la vie, et cela se produira uniquement si ceux qui se tiennent à l’extérieur de la vision directe, de la tutelle, ou du salariat des agents du capital sont prêts à s’engager dans ce défi (d’ailleurs, quelques scientifiques son disposés à aider les bio-hackers dans cette entreprise, mais ils sont rares). La tâche n’est pas facile : pour réussir, les participants devront retirer les œillères de l’entreprise et du profit. En outre, ils auront besoin de participer à cette activité d’une manière qui dépasse le plaisir de l’enquête et la satisfaction de la curiosité. Ceux qui en sont capables devront encadrer cette initiative comme une intervention délibérée contre une forme inacceptable de bio-pouvoir, ou plus positivement, comme un moyen d’inventer et de déployer de nouvelles formes de bio-politique.

Ce n’est pas de la science, mais cela y ressemble. Les formes de bio-intervention et de biohacking qui ont une valeur sociale se démarquent de la production des connaissances scientifiques, car, au contraire, elles s’efforcent de produire une politique qui s’oppose à la re-codification de la vie dans l’intérêt du pan-capitalisme. La production de la connaissance scientifique est hors de portée de ceux qui ne bénéficient pas d’indépendance financière. La science est une entreprise intensive au niveau du capital, qui coûte des millions, souvent pour produire des résultats incomplets. Le coût du matériel de pointe est prohibitif (généralement parce qu’il ne peut être optimisé en raison du faible nombre d’unités vendues) et le coût des matériaux liquides n’est pas plus abordable. Les réactifs biologiques, micro litre par micro litre, sont probablement les substances les plus chères au monde. En outre, cette entreprise exige une grande communauté ayant atteint un consensus sur ce qui constitue un processus légitimé de contre-vérification de la validité et de la fiabilité des résultats. Dans l’écrasante majorité des cas, ceux qui bricolent dans leur coin ne seront jamais en mesure de rejoindre ce club.

Compte tenu de ces limitations, que peut-on faire ? Pour commencer, si tout ce l’on souhaite c’est explorer les bases de la biologie moléculaire, cela ne peut se faire à un coût raisonnable que d’une manière limitée (en raison du coût des réactifs). L’un des domaines où le capitalisme excelle c’est l’optimisation des produits populaires pour faire baisser leur prix (malheureusement cette pratique apparemment positive est communément associée au pillage du travail des plus pauvres, des plus vulnérables, et des plus désespérés de la planète). Les outils de laboratoire de base tels que les incubateurs, les shakers, les centrifugeuses, les PCRs, les pipettes de précision, etc., sont facilement disponibles et abordables pour ceux dont le budget est limité (surtout si vous achetez du matériel d’occasion) ou bien, selon les préceptes de Graham Harwood, ceux qui n’ont pas d’argent peuvent piquer le matériel.

Free Range Grain. Photo: © Critical Art Ensemble.

En outre, de nombreux procédés ont également été optimisés et sont souvent disponibles sous forme de kits faciles à utiliser. Les laboratoires sont comme n’importe quel autre espace de travail capitaliste où l’ouvrage est entièrement stratifié. Il n’est pas optimal pour les gestionnaires (IP) de faire un travail de laboratoire. Ils doivent développer des théories, inventer des expériences, interpréter des résultats et rédiger des demandes de subventions. Ils ont besoin d’une main-d’œuvre bon marché, c’est-à-dire d’étudiants, plus communément surnommés « singes de laboratoire ». Ils ont besoin d’instructions faciles à suivre. Ce qui signifie pour les bio-hackers intéressés que, sans connaître la théorie de ce qui est produit, un résultat valide peut être atteint (alors non, pas besoin de doctorat !). Peut-être les gens veulent-ils savoir si les céréales de leur petit déjeuner sont faites à base de maïs transgénique : il existe un kit disponible à cet effet dans les magasins de fournitures scientifiques. Il suffit de suivre les instructions très détaillées. Cependant, vous devez vous assurer que votre laboratoire est correctement équipé pour le kit, et toujours vérifier ce qu’un kit donné nécessite avant de l’acheter. Les fondations sont maintenant posées : nous pouvons nous approprier le matériel, les processus et les quantités limitées de connaissances et les adapter à nos propres besoins.

Nous arrivons maintenant à la partie créative de notre processus. Que pouvons-nous faire avec des moyens modestes ? Pour répondre à cette question, le Critical Art Ensemble suggère de se tourner vers l’histoire de l’art afin d’obtenir des réponses. Et dans ce cas vers l’un des grands pirates de la culture du XXe siècle : Marcel Duchamp. Au début du XXe siècle, Duchamp a produit une série de sculptures toutes effectuées dans le but de déranger et perturber les croyances mythiques sur l’art, à savoir ce que les humains appellent l’art dans l’existence à travers un acte créatif transcendantal, au-delà de la sphère sociale. Duchamp croyait que l’art n’avait pas de qualités transcendantes ou essentielles, et le ready-made en était sa démonstration. Il a pris des produits fonctionnels manufacturés comme un porte-bouteille ou un urinoir et les a repositionnés comme étant de l’art. Estimant que le sens est déterminé par la situation, plutôt que par l’essence, il a placé les objets sur un piédestal, dans un musée ou une galerie, et les a signés. L’interrelation entre l’espace, le socle, l’objet, la signature et le spectateur signalaient à tous la légitimité du statut des objets en tant qu’art. Et en tant que tels, ils étaient considérés et traités comme de l’art. Cette reconfiguration des points signifiants pour produire de nouvelles relations aux objets communs est le modèle que les biohackers peuvent utiliser pour produire de nouvelles perceptions, des réflexions et des relations avec le monde organique (ou, comme William Gibson l’écrit : la rue trouve ses propres utilisations pour les choses…). Les Bio-interventionnistes doivent trouver leurs propres usages pour les outils de biologie moléculaire et cellulaire (pour les réaffecter en tant que décolonisation et libération des processus et des objets).

Ayant écarté l’équipement et les modèles de production, nous pouvons commencer à expliquer pourquoi nous croyons tellement en l’amateurisme de ceux qui sont engagés dans le DIY (bidouillage), plutôt que dans les spécialistes, pour montrer la voie de la réorientation des outils et des procédés de la biotechnologie. La raison principale en est que les amateurs n’ont pas de conflit d’intérêts. Leurs intérêts sont personnels et ne s’alignent pas sur ceux des entreprises ou des organisations militaires. Comme indiqué précédemment, la science est une entreprise coûteuse (et nous ne pensons pas ici à l' »entreprise »). L’argent doit venir de quelque part et les trois sources disponibles à cet effet sont : l’armée, le gouvernement et les sociétés commerciales. Cela signifie que les programmes de recherche doivent être en adéquation avec l’une de ces institutions. Pour que chaque investisseur continue à verser de l’argent aux laboratoires, ils doivent d’obtenir quelque chose en retour (que ce soit monétaire ou symbolique). Cela met les scientifiques sous la pression constante d’obtenir des résultats concrets. Le savoir ne suffit pas; il doit découler sur une application tangible (rentable). Malheureusement, la réalité pratique tend à orienter la recherche aux dépens de la connaissance pour son propre profit, bien que certains scientifiques soient devenus habiles à détourner un financement en déguisant leurs recherches par le biais d’un stratagème (une tactique courante pour des chercheurs qui explorent l’espace est de dire que leur travail aboutira à une station lunaire). Les amateurs sont complètement en dehors de cette boucle et peuvent diriger leur attention partout où ils le souhaitent. Le potentiel visionnaire des amateurs est bien plus créatif à l’échelle la vie quotidienne. Ils ne sont pas accablés par l’histoire, les normes, l’examen collégial, la survie institutionnelle et la sociabilisation de la vie en laboratoire. Ils peuvent rassembler et réutiliser sans tenir compte des mécanismes répressifs des disciplines.

Une dimension pédagogique fait également partie de cette alternative à la science du pan-capitalisme. Par le passé, le Critical Art Ensemble a mentionné le problème de l’aliénation. Les Biohackers peuvent aider à démystifier la biologie moléculaire en réalisant des projets qui démontrent que des connaissances de base, concernant l’application et le déploiement de la biotechnologie, sont accessibles et peuvent être facilement acquises par le public. Si nous échouons dans cette initiative, la politique publique de la biotechnologie ne sera pas mise au point par un processus démocratique, mais à travers le processus oligarchique actuel où les sociétés font ce qu’elles veulent en créant leur propre recherche et leurs normes de sécurité et de maintien de l’ordre. Comme toutes les alternatives à la règle du pan-capitalisme, elles doivent venir de la base. De ce fait, il y a beaucoup en jeu à l’heure actuelle. Le BioDIY, le biohacking, le bio-interventionnisme, ou quelque soit le nom que l’on souhaite lui donner, a une charge beaucoup plus grande que l’auto-divertissement par la science amateur, mais occupe une place importante dans le développement d’une biopolitique démocratique, des formes futures de la vie, de la santé et de la diversité de l’écosystème mondial. Le Critical Art Ensemble espère vous voir dans le laboratoire public.

Steve Kurtz
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

Le Critical Art Ensemble (CAE) est un collectif de 5 praticiens des tactiques médiatiques [tactical media], formé en 1987 et dédié à l’exploration des croisements entre art, théorie critique et science. Le groupe a exposé et réalisé des performances dans plusieurs lieux à travers le monde, de la rue au musée et en passant par Internet. Le CAE a également écrit six livres. Dans Molecular Invasion (Autonomedia, 2002) le CAE propose un modèle pour la création d’une biologie contestataire déclinée sous forme d’activisme appliqué au domaine organique. Site: www.critical-art.net/

pour une vie rêvée des lettres numériques

Ceci tuera cela : voilà comment un prêtre affolé dans Notre-Dame de Paris de Victor Hugo manifeste son inquiétude que le livre remplace un jour l’architecture religieuse. Aujourd’hui s’expriment parfois des craintes que « ceci », le dispositif numérique, provoque non seulement la disparition de « cela », le livre, mais surtout la dégénérescence de certaines façons de s’exprimer… et notamment de la littérature.

The Dreamlife of Letters, Brian Kim Stefans, 2000. Photo: D.R.

À un moment où les tablettes transforment encore nos pratiques de lecture, il me paraît en effet important de poser la question des formes d’existence et des potentialités d’une littérature numérique. Je n’établirai cependant aucune relation de concurrence. Certaines littératures continueront à s’écrire et à se lire sur support papier; d’autres ont commencé, il y a plus de cinquante ans (Stochastische Texte 1959 par Theo Lutz) à expérimenter avec ce que le dispositif numérique apporte comme nouvelles dimensions au texte. En posant la question de leur potentiel poétique, je passerai en revue quelques-unes de ces dimensions. La littérature écrite pour le dispositif numérique a pris un premier envol dans les années 80-90 avec l’émergence de revues (p. ex. alire) et la mise en place d’associations d’auteurs (p. ex. la Electronic Literature Organization). Depuis quelques années, festivals et anthologies se multiplient.

Machines poétiques avant la lettre
Bien que nativement numérique, cette littérature s’est d’abord inscrite dans la tradition des avant-gardes qui ont essayé de transgresser le cadre de la page papier par des dispositifs hypertextuels ou aléatoires « avant la lettre ». Ainsi, les auteurs de l’OuLiPo (Ouvroir de Littérature Potentielle) avaient dès les années 50 découpé des poèmes en lamelles pour démontrer l’importance du hasard dans le processus créateur (voir les Cent mille milliards de poèmes de Raymond Queneau) et étaient parmi les premiers à s’intéresser aux ordinateurs comme « générateurs automatiques » de textes poétiques. Du côté de la narration, les premières expériences numériques s’inspiraient souvent de la tradition du Nouveau Roman. L’hypertexte paraissait l’outil rêvé pour laisser le texte se déployer dans un tissu complexe de causalités et temporalités entrelacées. À l’heure actuelle, les paradigmes de la « machine poétique » et de l’hypertexte-fragmentation sont toujours d’actualité; j’affirmerais même que nous commençons seulement à savoir « lire » l’hypertexte. L’arrivée de l’hypermédia a pourtant également provoqué l’émergence de formes littéraires explorant la frontière entre littérature et arts visuels.

Stand under, Glia.ca, 2009. Photo: D.R.

Le mouvement du texte
Certaines créations expérimentent avec une mise en mouvement de mots et lettres, qui agit de façon plus ou moins attendue sur le sens du texte. Dans The Sweet Old Etcetera d’Alison Clifford (1), le mot « grasshoppers » (sauterelles) arrive sur l’écran en sautillant, et les deux « o » dans le mot « look » apparaissent et disparaissent comme s’ils clignaient des yeux. Je propose d’appeler « ciné-gramme » (en référence au calligramme) cette relation quasi imitative entre texte et mouvement. Dans d’autres cas, le mouvement n’imite pas seulement le sens du texte, mais l’ouvre vers de nouvelles significations, d’une manière non-illustrative qui rappelle certaines figures de style comme la métaphore. Je parlerais donc de « ciné-tropes ». Dans le poème Stand Under de David Jhave Johnston (2) par exemple, les mots « under » et « stand » sont étirés jusqu’à l’insoutenable avant de se compresser à nouveau. À la fois inséparables et incompatibles, texte et mouvement entrent dans des relations qui semblent au moins partiellement échapper à l’interprétation. Reste donc entre texte et mouvement une impression de (dé-)cohérence : un espace de liberté où je situerais le potentiel poétique de l’animation textuelle.

Le toucher du texte
D’autres espaces de (dé-)cohérence émergent dans la relation entre textes et gestes de manipulation. Dans Le Rabot poète de Philippe Bootz (3), le lecteur est invité à littéralement raboter la surface d’un poème en faisant rapidement bouger la souris par glissements en avant et en arrière. Cette relation entre le geste et une réaction d’effacement observable sur l’écran, pourrait sembler purement imitative, et constituer donc un « kiné-gramme » (toujours en référence au calligramme). Certains mots grattables entrent pourtant dans une relation surprenante avec le geste : le lecteur est par exemple incité à « raboter » les mots « tu écartes ces eaux », alors que l’eau ne constitue pas une matière rabotable. Cette (dé-)cohérence entre geste et texte échappe-t-elle à tout entendement ? Peut-être pas. Contrairement à ce que les jeux de grattage en ligne nous font croire, la matière numérique ne cède jamais à nos interactions. Le Rabot poète semble ainsi avertir le lecteur de la vanité effective de son geste. Cette impression de vanité est renforcée par le fait que le poème se déroule de la même façon si le lecteur ne rabote plus. Voilà comment la littérature numérique se montre parfois impertinente, résistante, voire politique : loin d’inviter à un jeu frivole avec les mots, l’interface renvoie le lecteur à ses réflexes, ses attentes, et l’incite à questionner les « allants de soi » du dispositif numérique. Questionnement d’autant plus salutaire que la littérature numérique est parfois accusée de complicité avec le monde économique, dont elle utilise les machines et outils de création.

Stand under, Glia.ca, 2009. Photo: D.R.

À la frontière de la disparition
Une troisième caractéristique de la littérature numérique concerne son caractère multimédia. Ce n’est pas le lieu ici de détailler la complexité des relations entre textes, images, son et vidéo dans ces « e-formes ». Je me contenterai de citer un exemple emblématique qui montre à la fois le potentiel et l’éventuel risque pour le texte. Dans In the white darkness de Reiner Strasser (4), le lecteur active des images et des fragments de texte par le biais d’une interface graphique. Émerge par exemple le mot « remember » (se souvenir). La forme des lettres est remplie d’images : le « m » contient un visage d’enfant. Dans une brève note, l’auteur explique qu’il a observé pendant plusieurs semaines l’évolution de malades d’Alzheimer. À partir de cette expérience, il a créé ce poème visuel interactif qui rend sensible la défragmentation de la mémoire, la lenteur et le désespoir de la décohérence, mais aussi la douceur évanescente des derniers souvenirs; magma dans lequel le texte se dissout inexorablement en matière graphique, même s’il reste présent dans le programme informatique de l’œuvre.

Programmer le texte
Cette relation entre le texte visible et le programme informatique est parfois difficile à appréhender. Un programme agit dans toute œuvre de littérature numérique, même si le lecteur ne voit pas son action sur l’écran. À cause de l’évolution de la capacité de calcul des machines, le programme n’est pourtant pas forcément exécuté de la même façon sur n’importe quel ordinateur, ce qui rend la littérature numérique foncièrement fragile, voire éphémère. Certaines animations créées dans les années 80, qui duraient une vingtaine de minutes, passent aujourd’hui sur l’écran en quelques secondes et deviennent quasiment illisibles – un problème pour la préservation, mais aussi un défi pour les auteurs. Certaines créations sont ainsi conçues pour se « décomposer » lentement sur l’écran. C’est ce caractère éphémère que j’expérimente, par exemple, dans mes propres créations (Tramway (5)), en mettant la (dé-)cohérence grandissante entre texte visible et programme au profit d’un travail sur la mémoire. C’est sur cette note personnelle que je terminerai mon bref parcours à travers les expérimentations de la littérature numérique. Au lieu de conclure, je voudrais inviter le lecteur à se saisir de ces espaces de liberté où, entre vide et plein de sens, se joue le potentiel poétique de la littérature numérique pour rendre sensible une nouvelle « vie rêvée des lettres », toujours à la frontière de la disparition.

Alexandra Saemmer
publié dans MCD #66, « Machines d’écritures », mars / mai 2012

(1) http://duck-egg.co.uk/sweetweb/sweetoldetc.html

(2) http://glia.ca/mp4/standUnder_MainConcept%20AVC-AAC_HI_qtp.mp4

(3) www.sitec.fr/users/akenatondocks/DOCKS-datas_f/collect_f/auteurs_f/B_f/BOOTZ_F/Animations_F/rabot.htm

(4) http://collection.eliterature.org/1/works/strasser_coverley__ii_in_the_white_darkness/index.html http://revuebleuorange.org/bleuorange/02/saemmer/

(5) http://collection.eliterature.org/1/works/stefans__the_dreamlife_of_letters.html

 

le « Je » entre en jeu

Depuis trop longtemps les médias ne savent plus où donner de la tête. Qui les regarde, les lit ou les écoute ? Avec quoi ? Comment ? Et d’où ? Démunis, les acteurs du petit écran le sont pour le moins. Parallèlement, on constate que l’Internet accélère une démultiplication des auteurs, que le statut d’auteur n’a jamais été autant sollicité. Bien sûr, ce n’est pas aussi simple.

Addicts, réalisation Vincent Ravalec, d’après un concept original de Lydia Hervel, Mascaret Films, Pictor Media & Arte France, 2010. Photo: D.R.

Les nouveaux médias qui annoncent que chaque internaute publiant ses impressions sur la toile par un post ou une vidéo (sans parler des weblogs ou de Flickr) peut se prétendre « l’Auteur d’un instant« , sont les mêmes qui déposent des droits sur les gestes de leur tablette ou songent à breveter le vivant. Le concept d’auteur est-il remis en cause pour le meilleur et pour le pire ? Non, bien sûr. Mais l’auteur-spectateur n’est rien de moins que le nouveau spectateur. Alors que le roman projetait son imagination, le cinéma et la TV son esprit, Internet et les autres dispositifs narratifs d’aujourd’hui projettent son corps. Il doit cliquer et être actif… Mais l’auteur de ces dispositifs sera-t-il assez convaincant pour engager ses spectateurs dans l’aventure ?

Le « Cinéma », qui a déjà explosé lorsque le spectateur est sorti de la salle obscure pour entrer dans les salles d’expositions, nous a fait rêver d’un expanded cinema, d’une immersion totale dans nos désirs d’images. Aujourd’hui, le cinéma est le monde, le film est sur tous les écrans, de Piccadilly Circus à notre smartphone, des PC portables aux affiches Decaux, de la tablette Apple aux lunettes Sony. Il était normal que l’auteur implose. Enfin, pas l’auteur en tant que tel, mais ses périmètres de compétences ! Car si les réseaux et le web remportent la mise par un nomadisme fabriqué et une ubiquité promise (connexion aux réseaux et virtualité des postures), à l’heure où les grands médias essaient de rasseoir leur prépondérance avec le grand rêve de la télé connectée et des applications propriétaires, on peut se demander pour quel contenu !

Il y a le grand œuvre qui agite le landernau télévisuel : le web-doc et sa petite sœur la web-série. Alter ego au doc-fiction, ce produit audiovisuel et multimédia propose au spectateur d’être lui-même l’acteur de son immersion multimédia dans un sujet. Qu’ils parlent d’un événement d’actualité, de problèmes de pays lointains, d’une révolution improbable, d’un thème de société aiguë, d’un fait historique, d’une plongée au cœur d’un système mafieux ou très high-tech, ces web-docs immergent leurs spectateurs au cœur même de l’enquête journalistique dont il (le spectateur) devient le héros. Comme l’enquêteur, le spectateur doit faire des choix, prendre des options, mener son enquête, pas à pas, avec le risque de tomber dans une ornière ou de passer à côté de quelque chose d’important. L’auteur tient alors la main de son spectateur qui se substitue à lui pour écrire son propre voyage. Certains proposent même de remettre de la fiction jouée au milieu des témoignages, documents, archives, notes manuscrites qui forment l’interface du tableau de bord soumis au spectateur. Parfois ces interfaces ont carrément à voir avec les tableaux d’enquête des séries policières avec photos des délits et des protagonistes. Reliées par des flèches et des annotations, ces photos deviennent des vidéos. À travers ces programmes cross-media, c’est à notre spectateur de tisser les liens d’une dramaturgie annoncée.

En 2011 Arte met en place sur le web une fiction interactive, Addicts (1). Dans cette fiction née d’un atelier d’écriture de Lydia Hervel (2) et des rêves de jeunes d’une citée Bordelaise, Les Aubiers, cornaqués par l’écrivain-cinéaste Vincent Ravalec (3), les acteurs sont aussi les auteurs et les personnages. Sont-ils les spectateurs ? Oui, si l’on imagine que le cinéma touche cette frange de la population très jeune. La navigation proposée, épisode après épisode, raconte une histoire dont le public devient aussi l’acteur et le réalisateur : une histoire de quartier qui tourne à l’embrouille. Le spectateur joue sa propre histoire et les acteurs leur vie. Chaque épisode propose de suivre différents protagonistes sur une timeline. On peut suivre les interrogatoires de la police : Saad qui sort de prison, Djibril styliste de banlieue, Thalya gérante de cyber-café et Damien père tranquille endetté… Et là commence le jeu de rôle.

Comme s’il était derrière les écrans de caméras de surveillance ou dans une émission de télé-réalité, le visiteur suit dans l’ordre qu’il veut les péripéties de ces jeunes d’une cité. Outre une interface qui aurait gagné en sobriété, Addicts avait certainement le désir de rendre « addicts » les spectateurs de cette aventure qui reste un succès partiel (349 806 vues cumulées ?!). Dans ce genre de cross-média, tout est étudié : chaque clics, la popularité des personnages, la fidélisation, le top des épisodes (16 de 10 minutes chacun). Quoi qu’on en pense, Addicts a essuyé les plâtres (beaucoup d’épisodes, plus longs que les autres web-séries, plus chers aussi) et nous a permis de constater que même une œuvre narrative non linéaire (écrite à plusieurs mains) pouvait introduire une interactivité fictionnelle propre à chaque spectateur et au monde qui s’accorde à ses réalités.

La version « linéaire » du programme, en film TV, livrée à Arte… se révéla fort indigeste. Le financement de ce genre de programme est ardu et les implications des diffuseurs (très démunis face aux comportements de leurs publics) pas vraiment claires. Dès lors, de telles aventures s’avèrent souvent sans lendemain au profit de web-séries très courtes, avec plus de gags comme Visiteur du Futur, ou encore de web-docs sur l’affaire Clearstream, moins chers et plus universels dans une économie mondialisée aux financements erratiques ! Arte reste néanmoins la pionnière du genre. La chaine franco-allemande n’est-elle pas de toutes les expériences. Avant Addicts, elle se lança avec Le Louvre dans un audacieux projet de web TV culturel puis dans le web-doc avec de belles réussites (Gaza-Sderot ou Prison Valley). Jérôme Clément (l’ex-président d’Arte) n’avait-il pas dit qu’Internet n’était pas qu’un média, mais aussi un espace de création. Alors on rêve des résultats qu’Arte, l’INA, France Télévision ou un autre établissement publique pourraient tirer d’un programme de création qui, sur les traces des Ateliers de recherche et de créations de l’ORTF de Pierre Schaeffer, serait livré à de nouveaux auteurs et à de nouvelles écritures. On rêve de programmes cross-médias qui, entre TV et documentaire, entre fiction et Internet, changeraient nos habitudes et démontreraient de nouveaux usages à nos désirs d’images.

Une création comme le Tulse Luper Suitcases de Peter Greenaway est le précurseur de cette narration nouvelle. Débutée il y a 10 ans hors du réseau, cette saga ne s’est raccrochée que très récemment à l’Internet. L’utilisation par Greenaway des différents médias (films, TV, CD Rom, DVD, Internet, exposition et livres) et des technologies de pointe du cinéma numérique nous propulse vers un cinéma total (4). Tulse Luper Suitcases est la preuve que c’est à de grands auteurs que doivent aussi parler ces nouveaux programmes non seulement expérimentaux, mais expérimentables (Lynch, Godard…). C’est vers de véritables programmes transmédias et expérimentables que le spectateur doit être emporté. Au cinéma, à la télévision, sur Internet, dans les jeux vidéos, les productions de demain doivent s’écrire sur tous ces registres afin que le « Je » du spectateur entre en jeu.

Car le « Je » est l’enjeu du cinéma de demain (les jeux vidéo nous le montrent depuis longtemps). Le jeu dans les web-docs étant avant tout celui du spectateur de ce cinéma qui substitue à notre regard de spectateur un monde qui s’accorde à notre désir d’expérimenter une aventure, qu’elle soit fictionnelle, documentaire, géographique, historique, artistique, dramatique, poétique… Aujourd’hui ces nouveaux médias proposent aux créateurs de relever le challenge… de mettre leurs spectateurs, non seulement dans leur peau, mais en plus de leur faire vivre leurs incertitudes d’auteur. Reste à savoir si le spectateur (dont la ménagère de moins de 50 ans) est prêt à tisser lui-même les liens de ces nouvelles écritures… les auteurs, eux, le sont.

Jean-Jacques Gay

(1) Addicts est la première web-fiction d’Arte, co-produite par Mascaret Films. > http://addicts.arte.tv

(2) > http://lefilmdulac.blogs.sudouest.fr/

(3) Réalisateur entre autres du film Le cantique de la Racaille.

(4) > www.tulselupernetwork.com/basis.html

(5) Entendons par cinéma, toute narration audiovisuelle d’auteur.

à propos de Fréquences – projet pour iPhone

Dès que j’ai disposé d’un smartphone, j’ai recherché ce que celui-ci proposait sous le terme de « livre ». Les applications répondant à cette appellation étaient aussi nombreuses que décevantes.

Fréquences – projet pour iPhone. Photo: © André Baldinger

Leur contenu : la reprise de grands classiques (Arthur Conan Doyle, Edgar Allan Poe), ou de succès commerciaux (Dan Brown, Mary Higgins Clark). Très rares étaient les textes écrits spécifiquement pour ce nouveau support. Leur forme : une esthétique de cinéma d’animation un peu daté, pages sépia façon vieux grimoire, avec bruit mimant celui des pages tournées. Ou, dans une version plus pauvre, un texte brut, à peine mis en page, accessible au plus grand nombre, souvent gratuitement, certes, mais visuellement proche d’un rtf. Ce que je découvrais faisait franchement injure à l’histoire (graphique et éditoriale) du livre, sans la prolonger. Je rêvais d’autre chose. D’un livre réellement conçu pour smartphone. Qui en exploite les possibilités (visuelles, sonores) et qui en assume pleinement le format. Un livre expérimental portatif qui serait aussi un beau livre.

Fréquences est né de ce désir. Et de ma rencontre avec André Baldinger, concepteur visuel et typographe, Sébastien Roux, compositeur, Martin Blum, concepteur multimedia et Graziella Antonini, photographe. Ensemble, nous avons imaginé un livre électronique inclassable et ne dépendant d’aucun standard (eReader, Stanza…). Après une première version scénique de ce texte d’abord conçu comme un livret d’opéra (création en 2004 à La Chaux-de-Fonds, Suisse. Musique : Claude Berset. Mise en scène: Fabrice Huggler), nous avons poursuivi l’exploration de ce texte en imaginant sa diffusion sur une autre scène, qui associe création radiophonique et design graphique. Le récit : un homme traverse un paysage hivernal en voiture. On suit le trajet de cet automobiliste de la nuit tombante jusqu’au petit matin. Il écoute une émission de radio au cours de laquelle des intervenants viennent confier des fragments de vie, des parcelles d’intimité (cf. ill. 1).

Le texte pensé pour la scène (alternance de récitatifs et d’arias) a été réécrit. Des disdascalies destinées au metteur en scène sont devenues des sons ou des motifs graphiques (la neige, cf. ill. 2). Nous avons fait le pari d’une certaine linéarité, du noir et blanc, du format paysage, de boutons tactiles faisant surgir des images ou du son qui agissent comme des ralentisseurs, ou offrant de vraies pauses, des suspens, dans la lecture. L’œuvre s’écoute exclusivement au casque afin de créer plus d’immersion et d’intimité. Et pour chaque personnage a été pensée une couleur sonore particulière ou une petite mélodie, à la façon d’un leitmotiv.

Écrire pour smartphone a constitué pour moi une expérience inédite. Collective. Où le texte devenait un élément d’un paysage à la fois plus grand que lui, mais qu’il générait. Fréquences est une partition sensorielle et cognitive qui a tout d’une mise en scène miniature. En ce sens, elle prolonge d’autres expériences d’écriture numérique, comme l’œuvre interactive multimédia de Xavier Malbreil et Gérard Dalmon, le (très beau) Livre des Morts.

Célia Houdart (décembre 2011)
publié dans MCD #66, « Machines d’écritures », mars / mai 2012

Fréquences – projet pour iPhone. Photo: © André Baldinger

Fréquences – projet pour iPhone
> www.frequences-livre-audio.net/
texte : Célia Houdart
conception visuelle et typographie : André Baldinger
création sonore : Sébastien Roux
photographies : Graziella Antonini
responsable réalisation et développement : Martin Blum | Blumbyte Design
développement iPhone sdk : ELAO
suivi de production : Grand Ensemble
production : Stanza
coproduction : Cie D. Houdart-J. Heuclin, Le Phénix Scène Nationale de Valenciennes, éditions P.O.L, La Muse en circuit, Centre national de création musicale
avec la participation du Ministère de la Culture et de la Communication-DICRéAM, Bourse Orange-Beaumarchais/SACD formats innovants 2010