Archive d’étiquettes pour : MCD #68 – La Culture libre

archives vidéo à l’ère numérique

Les questions soulevées par l’archivage audio et vidéo à l’ère numérique constituent sans aucun doute l’un des points de contact majeurs entre la philosophie de l’open source et les pratiques artistiques audio et vidéo. Ici, l’archive se définit comme un ensemble de systèmes, de méthodes et d’expériences dans l’élaboration de la collection, la diffusion et l’accès à la connaissance. Inutile de dire que ce qui relie les concepts d’open source et d’archive à UbuWeb est commun à la plupart des protagonistes impliqués dans l’histoire de l’expérimentation audiovisuelle en milieu universitaire, la recherche, l’enseignement, l’étude ou plus généralement à ceux qui s’aventurent dans la recherche — trop souvent ardue — de contenu audiovisuel documentant l’histoire de l’avant-garde.

Kenneth Goldsmith @ Street Poets and Visionaries, Mercer Union. Toronto, 2009.

Kenneth Goldsmith @ Street Poets and Visionaries, Mercer Union. Toronto, 2009. Photo: © C. Jones.

Alors que bon nombre d’organisations dédiées à la « préservation du patrimoine audiovisuel » s’efforcent de résoudre le conflit apparent entre la protection du droit d’auteur et le réseau de diffusion, UbuWeb a fait du libre accès et du mépris du droit d’auteur le symbole et l’instrument de sa révolution. L’expérience d’UbuWeb est unique et absolue, comme son fondateur Kenneth Goldsmith nous le rappelle avec emphase, amenant à se demander comment le projet a pu survivre jusqu’à nos jours. En effet, il s’est développé tout en restant conforme à son principe fondateur.

Kenneth Goldsmith, poète, enseignant et rédacteur en chef du projet PennSound, a fondé UbuWeb en 1996 pour mettre à disposition des œuvres d’art visuel et de poésie concrète. C’est ainsi que la mise en ligne de contenu, introuvable ou épuisé, a commencé. Dès le début, des genres et des catégories de contenu mis à disposition ont quelque peu dépassé les frontières des arts visuels et de la poésie concrète : la poésie sonore a été la première catégorie à ouvrir la voie, à partir de là, s’est rajouté toute la musique d’avant-garde, jusqu’à la création de la section « Film », qui héberge environ 7 500 titres et auteurs. Ce mélange, cette hybridation des disciplines, forme la caractéristique principale du projet, déterminé à encourager des rapports alchimiques entre musique, poésie, littérature, cinéma et vidéo, essais et articles.

Toutes les interviews publiées, le grand nombre d’informations contenues sur le site et le manifeste même du projet rappellent deux règles fondamentales : UbuWeb ne reçoit aucun fond public ou privé et diffuse le contenu sans demander de permission, parce que si nous avions dû demander la permission tout ceci n’existerait pas (1). Nous n’avons pas demandé à Goldsmith comment ils parvenaient à réaliser ce rêve partagé par de nombreux partisans de l’accès libre (freeaccess, open access) et du P2P, parce que cette question a déjà été posée à d’innombrables reprises. Il n’est pas difficile de trouver sa réponse sur le net, qui dit en substance : nous le faisons, c’est tout. Comme vous pourrez le lire dans ses propos, Goldsmith est réticent quand il s’agit de réfléchir ou de faire des comparaisons entre l’expérience d’UbuWeb et le discours plus général de la relation entre archives et accès libre En fait, l’expérience d’UbuWeb est une anomalie au niveau des deux pôles, l’antithétique de ce domaine.

UbuWeb s’éloigne manifestement d’une archive audiovisuelle traditionnelle. Le projet semble plus proche de la dynamique de l’échange P2P, avec laquelle il partage souvent la source de ses contenus, mais aussi l’accès gratuit. Pourtant, UbuWeb est radicalement différent du P2P en ce qu’il ne respecte pas la structure horizontale caractéristique de l’échange P2P, mais suit un schéma à sens unique allant du haut vers le bas, établissant une modalité de transmission des connaissances selon une distribution multivoque (one-to-many).

Pour UbuWeb, le partage est en fait un cadeau (2), mais d’une manière qui contredit celle décrite par Marcel Mauss (3) : elle ne permet ni ne vise à construire une relation, il refuse même toute possibilité de réponse à son offre. Le don d’UbuWeb rappelle la définition du don par Derrida (4) : pour qu’il y ait don, il faut qu’il n’y ait pas de réciprocité de retour, d’échange, de contre-don ni de dette. Si l’autre me rend ou me doit, ou doit me rendre ce que je lui donne il n’y aura pas eu don, que cette restitution soit immédiate ou qu’elle se programme dans le calcul complexe d’une différence à long terme (5).

Selon cette formulation, le don représente l’une des formes les plus radicales de la perturbation de l’économie de marché, de par l’élimination de son rapport d’échange lui-même. Dans ce cadre, UbuWeb joue un rôle particulièrement important en ce qui concerne l’un des aspects plus problématiques de la production de l’open source. Bien qu’apparaissant comme une stratégie innovatrice, la production de l’open source est intégrée aux échanges et aux marchés propres à l’économie capitaliste et continue ainsi à en dépendre. Si le marché définit la valeur des produits culturels, alors, le rôle d’UbuWeb est de préserver les objets qui s’en sont échappés, en ont été rejetés ou se sont dissous dans les limbes de ce même marché (œuvres épuisées ou jamais publiés) et fonctionne de façon très similaire à celle des magasins gratuits, dans lesquels des produits sont donnés, perdant ainsi leur valeur marchande tout en conservant leur valeur d’usage.

UbuWeb est né il y a 15 ans. Au regard de ces années d’activité. Dans quelle mesure le projet a-t-il changé et quelles sont les futures évolutions envisageables…
Très peu de choses ont changé. UbuWeb fait à peu près la même chose qu’à ses débuts : il distribue gratuitement des œuvres d’avant-garde à n’importe qui à travers le monde. L’avenir suivra cette même ligne. Peut-être qu’une nouvelle section ouvrira ici et là, mais nous n’avons pas l’intention de changer quoi que ce soit.

UbuWeb, et ses archives en ligne, ne pourraient exister sans Internet. Le projet lui-même est né juste après l’avènement d’Internet. Comment s’est-il adapté aux énormes transformations subies par le web au cours de ces dernières années, notamment celles des méthodes de partage et d’accès à des idées et des connaissances?
UbuWeb n’a jamais été dépendant de serveurs Cloud. Nos serveurs sont stables et transparents, ils nous ont été donnés par une école d’art de la ville de Mexico. Par conséquent, quand vous téléchargez quelque chose depuis UbuWeb, vous obtenez un fichier AVI ou MP3 sans échec, sans temps d’attente, sans paiement, sans captchas, toutes ces choses qui ont fait la fortune de Megaupload. Je plains tous ces gens qui ont construit de merveilleux blogs MP3 en croyant que Megaupload serait toujours là. Je peux comprendre ce qui les a poussés à le faire, mais dans la culture commerciale, il y a toujours un prix à payer. Rien n’est gratuit. Et pour les utilisateurs de Megaupload la facture a fini par tomber.

Quels sont vos rapports avec les archives institutionnelles aux États-Unis et partout ailleurs dans le monde ? Vous êtes vous déjà rencontrés et avez-vous déjà essayé de connaître la manière dont ils vous perçoivent ? Envisagez-vous des collaborations ?
Les seules archives institutionnelles avec lesquelles nous collaborons aux États-Unis sont PennSound et l’Electronic Poetry Center de l’Université de Buffalo. L’EPC est né à la même époque que nous et nous sommes partenaires depuis ce temps-là. PennSound est vraiment le pendant légitime et autorisé d’UbuWeb : une grande partie de nos documents sont stockés sur les serveurs de PennSound. Le genre de travaux auxquels UbuWeb s’intéresse n’est partagé que par un public très limité, par conséquent il n’y a pas vraiment de compétition ou de confrontation; personne ne semble les vouloir à part nous.

Au cours des dernières années, les archives audiovisuelles institutionnelles se sont principalement intéressées aux méthodologies et aux stratégies Internet de mise en œuvre de systèmes pour diffuser leur patrimoine en ligne; de nombreux projets sont nés ralliant les institutions européennes et nord-américaines pour créer de nouveaux réseaux et de nouvelles plates-formes. Il est rare que le contenu y soit en libre accès (un compte institutionnel ou un accès VOD sont requis), certaines institutions (comme le NiMK à Amsterdam) ont même récemment facturé les utilisateurs pour le visionnage. UbuWeb est tout à l’opposé : il est né en tant qu’archive, directement sur Internet, avec du contenu partagé en accès libre et a comblé un grand vide dans la diffusion du patrimoine audiovisuel international. Par conséquent, quelles sont les similitudes et les différences entre UbuWeb et les archives institutionnelles au niveau du processus de partage de fichiers en ligne ?
Étant donné que nous sommes indépendants, nous ne devons plaire à personne d’autre que nous-mêmes. Nous improvisons au fur et à mesure. La seule chose sur laquelle nous insistons est le libre accès pour tous, et j’ignore pourquoi ces institutions ne font pas la même chose, mais nous refusons de mettre des pare-feu sur quoi que ce soit. PennSound, qui est géré par l’Université de Pennsylvanie est une exception : ils ont une philosophie identique à celle d’UbuWeb. UbuWeb croit au partage de la culture et s’oppose au droit d’auteur et à l’argent. Nous n’avons rien à gagner et rien à perdre. C’est ça la liberté. Et cette utopie est beaucoup plus intéressante que toutes les œuvres ou contenus que nous pouvons héberger. Il s’agit vraiment de la mission secrète d’UbuWeb.

Parlons un peu des utilisateurs d’UbuWeb. Comment la plate-forme génère et aborde le dialogue et avec les utilisateurs ? Est-ce qu’une véritable communauté existe par le biais de retours et commentaires ? Avez-Vous déjà envisagé des événements en mode hors connexion, à l’exportation de contenu Internet, au partage de contenu à travers des réunions physiques ?
UbuWeb n’est pas une démocratie, c’est ce qui fait sa grande qualité. Nous croyons qu’à un moment où tout est disponible, ce qui compte c’est le filtrage et la sélection. Ainsi, il est très difficile d’obtenir que vos œuvres soient présentées sur UbuWeb. Tout passe par un examen approfondi avant d’atterrir sur le site. Si vous voulez de la démocratie, allez sur archive.org ou YouTube. Si vous voulez du communautaire, allez sur Facebook. Nous n’avons rien à voir avec une communauté. Encore une fois, nous ne cherchons à plaire à personne à part nous-mêmes et ne cherchons pas vraiment à savoir ce que les gens pensent de notre site. Pourquoi se tourner vers des réunions physiques dont la portée est insuffisante et limitée alors que nous avons à disposition Internet, le meilleur système de distribution qui soit ? Tout semble très bien fonctionner ainsi.

La création de méthodologies de migration de contenus sonores et audiovisuels — du format analogique vers le numérique — est opérationnelle depuis longtemps dans l’archivage de l’art médiatique/basé sur le temps réel. Quelles méthodes utilise UbuWeb pour numériser le contenu audiovisuel et sonore et pourquoi ? Des laboratoires ou des institutions de référence s’occupent-ils de cette étape pour vous ?
À l’heure actuelle, nous remettons surtout en ligne des choses qui flottent autour de groupes de partage de fichiers privés auxquels seul un petit nombre de personnes a accès. Nous agissons comme des Robin des bois, volant un petit groupe pour redistribuer au plus grand nombre. Il y a tellement de choses qui circulent, qu’il ne nous est plus nécessaire de copier de nouveaux supports, ce qui amoindrit ainsi le besoin de laboratoires, d’institutions ou d’argent.

Est-ce que vous avez des retours ou des commentaires de la part d’artistes sur la manière dont vous fonctionnez ? De nombreux projets de conservation considèrent la relation avec les artistes comme essentielle…
Non. Les retours et commentaires de qui que ce soit, y compris des artistes, ne nous intéressent pas. Si quelqu’un n’aime pas se ce qui se trouve sur UbuWeb ou la façon dont on procède, il est libre d’aller voir ailleurs ou mieux encore, d’en faire une meilleure version, personne ne l’en empêche. Nous ne nous intéressons pas non plus à la conservation de manière sérieuse. Une véritable institution comme le MoMA devrait s’occuper de la conservation. Ubu est une excentricité, une archive non fiable, basée sur un caprice et une intuition, c’est un wunderkammer, un passe-temps, une farce. Sa beauté réside dans sa fragilité, son aspect éphémère. Un jour, le MoMA ou tout autre organe officiel fera une version correcte d’UbuWeb et nous mettra ainsi hors service. Nous attendons ce jour avec impatience.

UbuWeb peut être considéré comme un modèle en ligne durable, même sans financement institutionnel, sans argent pour son fonctionnement et sans publicité. Mais, comme vous l’avez dit à plusieurs reprises, UbuWeb pourrait disparaître pour un certain nombre de raisons : le FAI pourrait couper votre accès, le soutien des universités pourrait se tarir ou de nouvelles lois sur la violation du droit d’auteur pourraient s’imposer. Le site Web serait-il alors amené à disparaître ? Ce serait une énorme perte pour le patrimoine audiovisuel qui rendrait vain le travail des collaborateurs, des partisans et des bénévoles de ces dernières années. À cet égard, avez-vous envisagé une différente tactique de survie pour l’avenir ? Peut-être pourrait-elle inclure le web 2.0 ou les nouvelles stratégies économiques du crowdfunding et de mise en réseau ?
Je préfèrerais fermer UbuWeb plutôt que mendier de l’argent ou avoir recours à un Kickstarter. Ce sera le moment de dire « adieu, on s’est bien amusés tant que ça a duré ». Le web est éphémère et les choses disparaissent tout le temps. Profitez d’UbuWeb tant qu’il est là et assurez-vous de tout télécharger maintenant ou vous le regretterez lorsque le site aura disparu.

Justement, concernant les violations du droit d’auteur, UbuWeb existe dans ce que vous appelez « la zone grise » : le contenu que vous publiez se situe en dehors du marché commercial et le marché lui-même ne semble pas intéressé. UbuWeb semble être la preuve de la manière dont le droit d’auteur et la piraterie ne sont pas liés aux lois gouvernementales, mais plutôt aux intérêts économiques relatifs à la diffusion et à l’accès de la culture en ligne. Ainsi, comment travaillez-vous et vivez-vous à la frontière instable entre contrefaçon et violation du droit d’auteur d’une part et intérêt du marché de l’autre ? Pensez-vous qu’UbuWeb puisse être considéré comme une erreur de système des nouvelles spécificités du concept de droit d’auteur professé par les lois actuelles ?
Nous ne sommes pas sur une frontière parce qu’il n’y a pas de marché pour les choses que nous diffusons. Si vous essayez de les publier, et beaucoup de gens l’ont fait — vous vous rendrez compte que vous allez perdre de l’argent et devenir aigri. La nature de ces œuvres implique leur libre circulation. Il est important de noter qu’il existe différents types d’économies. Lady Gaga possède une entreprise de plusieurs milliards de dollars. Elle serait folle de ne pas la protéger. UbuWeb respecte ces autres types d’économie, c’est juste qu’ils n’ont rien à voir avec ce que nous faisons. UbuWeb, comme la majorité de l’art, est une aberration, une cour des miracles, une exception à la règle; il n’est pas la règle elle-même et ne devrait jamais être confondu avec elle.

Interview par Claudia D’Alonzo & Marco Mancuso
publié dans MCD #68, « La culture libre », sept. / nov. 2012

> http://www.ubuweb.com/

art, science et biologie à bidouiller soi-même

Si l’image des biohackers fait simplement penser à des activistes, politiquement et esthétiquement investis dans les aspects techniques de l’interface informatique et de la biologie (moléculaire), alors elle devrait englober la communauté naissante de bio-hackers (bio-pirates) de La Paillasse.

La Paillasse a récemment fêté son inauguration dans une banlieue de Paris. À côté de voies ferrées et de bâtiments vétustes, voués à être démolis dans un proche avenir, leur attitude « do-it-yourself » (bidouilleuse) est évidente quand on regarde les outils qui traînent un peu partout, en cours d’utilisation, en construction ou en morceaux éparpillés. Bien sûr, l’équipement est en grande partie constitué d’un matériel hétéroclite recueilli afin de constituer un « hackerspace » (espace pirate), mais on trouve aussi des tables de travail avec des microscopes, une centrifugeuse, un spectromètre, des incubateurs ainsi que des flacons ordinaires, des réfrigérateurs et des micro-ondes. La plupart des outils sont anciens, voire obsolètes. Cependant, ne vous méprenez pas, il s’agit là d’un lieu de créativité qui n’a rien à envier aux laboratoires emblématiques de la « grande biologie ». Il faut une sacrée dose de créativité et de persévérance pour mettre sur pied un laboratoire avec trois fois rien et sans imiter les programmes de recherche de « la grande biologie » ou tenter de devenir des pâles copies d’inventeurs en blouse blanche qui utilisent du matériel de pointe dans un environnement stérile et ordonné.

Certes, l’apparence de « la biologie-à-faire-soi-même » à La Paillasse ne ressemble en rien aux jolies images trouvées sur les sites d’instituts haut de gamme ou de sociétés commerciales, mais reste à savoir si un laboratoire biologique qui fait partie d’une sous/contre-culture de hackers correspond à un genre de créativité qui remet en cause les « laboratoires humides » types comme espaces exclusifs et asociaux. Plus précisément, on trouve exemplaire la réaction de son grand frère face à la marchandisation du code source. Où mène l’exemple donné par le développement du logiciel de source libre et ouvert lorsque l’objet examiné porte non seulement sur la création et la modification du code source et du matériel qu’il fait fonctionner, mais aussi sur la vie et le travail sur des formes de vie en tant que connaissance, création technologique, art et tout leur contraire ?

Le Lab / La Paillasse.

Le Lab / La Paillasse. Photo: D.R.

La Paillasse comme point de départ…
Commençons par quelques-unes des nombreuses idées qui circulent dans les réunions du jeudi soir à La Paillasse. Bien entendu, chacun est le bienvenu dans ce groupe diversifié de personnes passionnées par l’évolution des sciences de la vie. Il n’est pas nécessaire d’identifier explicitement le chercheur en sciences de la vie, le programmeur, l’élève, le citoyen ou l’artiste qui s’intéresse aux aspects sociaux de la science. Il est probable que les personnes présentes seront amenées à endosser le rôle d’un ou plusieurs de ces personnages au cours de la soirée, quel que soit leur niveau d’expérience. C’est aussi ce que « faire-de-la-biologie-soi-même » signifie. Les obstacles pour devenir actif dans la biologie sont extrêmement importants, la connaissance requise demande de rester à l’affut de la rapide évolution technique et de maîtriser des compétences et des connaissances essentielles pour travailler avec des instruments précis, les démonter et les utiliser dans des expériences. En d’autres termes, le DIYbio se concentre sur la construction d’un laboratoire équipé d’outils élémentaires pour toute personne ayant une approche de base concernant l’expérimentation. Ce laboratoire est activement mis en place comme un espace social aussi inclusif que possible.

Bon nombre des exemples discutés à La Paillasse illustrent ce point. Les seuils de participation à l’enregistrement et au catalogage de l’interaction de la biodiversité et des organismes génétiquement modifiés sont faibles. Bien entendu, ce processus nécessite des outils capables de remplir cette fonction et qui soient suffisamment simples pour permettre à quiconque de collecter des données plausibles. Par exemple, La Paillasse a lancé un projet sur les propriétés des algues. Un réseau de recherche qui étudie les nouveaux biocarburants se concentre de plus en plus sur les algues. Un échantillon est peu coûteux et grâce à un bio-réacteur et un peu de pratique il est possible de produire de l’électricité. Ce qui compte, parfois, c’est la simplicité même de la technique et la disponibilité des matériaux dans la vie courante, comme la création de papier ou de plastique à partir de simples micro-organismes. À d’autres occasions, cependant, le DIYbio ne peut se distinguer du BioArt. Par exemple, on pourrait imaginer que l’interaction avec les algues soit transformée en musique. Pourquoi ne pas « écouter la vie » en développant des logiciels qui permettent d’enregistrer les variations de son et de luminosité des algues de culture ? Il en résulterait un enregistrement de tout changement générant des sons réactifs.

Le domaine numérique investi par le hacker réapparaît dans ces types de projets. Cela illustre le fait que seuls quelque sens soient fiables, tandis qu’émergent des outils informatiques pour penser à la vie, à la nature et au corps. Par exemple, un simple casque équipé de capteurs pourrait transformer les ondes cérébrales en sons et couleurs différents représentant les divers aspects de l’activité mentale. C’est ce que l’on surnomme le projet neuro-hack. De même, beaucoup d’autres significations peuvent être directement reliées aux vastes quantités d’informations rassemblées sur les gènes, les protéines, les cellules et tout ce qui est ainsi produit par la recherche scientifique. Visualiser les tendances des interactions complexes entre entités biologiques fait généralement appel aux yeux, tout comme la lecture de textes ou la vision d’une simulation, il est également possible d’écouter des sons, voire de la musique, en fonction de leurs changements d’aspect, de formes et de positions.

Neurohack, Psyche Delight (performance) @ La Gaîté Lyrique, Paris 04/2012. Projet créé par Sam NeuroHack, Katerina Saponenko & Franck Weber.

Neurohack, Psyche Delight (performance) @ La Gaîté Lyrique, Paris 04/2012. Projet créé par Sam NeuroHack, Katerina Saponenko & Franck Weber. Photo: © Fabrice Deutscher.

L’avenir ouvert
Les projets décrits ci-dessus peuvent être considéré comme essentiellement symboliques du personnage du biohacker et du laboratoire en tant qu’espace social par opposition à l’exclusivité des sciences de la vie. De même, la figure du biohacker se réfère à la possibilité qu’ont des groupes émergeants de constituer des alternatives à l’avenir spéculatif de la vie imaginée comme création technologique entièrement maitrisée. Bien entendu, les projets réalisés par les participants de La Paillasse (ou les futurs projets qu’ils pourraient réaliser s’ils parvenaient à moderniser leur laboratoire) sont susceptibles de soulever la conscience critique et politique autour des questions relatives à la biologie. Par exemple, leurs alternatives à faible coût et de faible technicité sont « gratuites » et revalorisent la créativité, l’espièglerie, la collaboration entre amateurs et experts, les matériaux et les connaissances de toutes sortes (surtout si on les compare aux restrictions portant sur l’utilisation des outils).

En effet, ces alliances d’évolution technologique, de valeurs humaines et de débats illimités pourraient constituer des contre-mesures urgentes et nécessaires face aux risques écologiques, à l’insécurité et aux formes de vie « totalement déréglées » dans leur lien avec l’approche générale de la biotechnologie concernant la modification des plantes, des organismes vivants et de l’environnement. Toutefois, ces valeurs ne sont pas nécessairement contraires à la production et l’utilisation des connaissances scientifiques dans les sciences de la vie en tant qu’activité de plus en plus réglementée et commercialisée. Les valeurs d’accès, d’ouverture et de collaboration ne sont pas toujours réservées aux expériences et à la recherche où les impératifs commerciaux n’ont pas leur place. De même, le désir d’intensifier leurs expériences implique une proximité avec les tendances et la spéculation actuelles qui entourent les solutions fournies par les scientifiques de la vie face à la pénurie de nourriture et de médicaments, la spéculation sur l’augmentation des catastrophes écologiques de toutes sortes et la grande variété d’associations dystopiques qui en sont le reflet.

Le personnage du biohacker rencontré à La Paillasse est rafraîchissant dans son aspiration à trouver un autre type de développement né du croisement entre informatique et biologie (moléculaire). Il lui reste cependant à maintenir un équilibre dans la relation de ce personnage avec les connotations politico-militantes du terme biohacker. Que se passera-t-il lorsque des projets de biohacking et l’acquisition d’instruments plus sophistiqués (qui augmenteront leurs possibilités d’action et d’interaction avec des formes de vie) s’intensifieront ? Manifestement, il existe une tension entre le rôle du biohacker, le recours à des types plus nombreux et variés de ressources et de règlements et la formation d’un réseau ouvert favorable à une nouvelle forme de recherche, de collaborations, de subventions, la mise au point d’une politique spécifique, etc. Un programme de recherche qui se refuse à suivre cette voie pourrait finir aliéné par rapport aux modes opératoires des sciences de la vie. Les deux entités (le biohacker et le biologiste bidouilleur) vont finir par se rejoindre dans un avenir proche, après avoir mûri et accumulé une plus grande expérience. Espérons que cette future rencontre englobera la perspective de transformation des laboratoires en espaces sociaux où chacun sera libre de travailler avec l’ADN sous ses différentes formes.

Eric Deibel
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

 

> http://www.lapaillasse.org/

Les universitaires du début du XXe siècle spécialisés en sciences humaines, les critiques, conservateurs et commissaires d’expositions ont accès à une quantité de médias visuels sans précédent — beaucoup plus qu’il ne leur serait possible d’étudier, ni même simplement visualiser ou encore rechercher.

Manga / montage (close-ups). Lev Manovich & Jeremy Douglass, 2010.

Manga / montage (close-ups). Lev Manovich & Jeremy Douglass, 2010. Photo: D.R. / Courtesy Lev Manovich

Comment travailler avec de gigantesques collections d’images?
Une certain nombre de développements reliés entre eux, survenus entre 1990 et 2010 — la numérisation d’un grand nombre de collections de supports analogues, l’augmentation de contenu généré par les utilisateurs et les plateformes sociales, l’adoption du web en tant que plateforme de diffusion de médias et la globalisation qui a accru le nombre d’agents et d’institutions produisant des médias dans le monde entier — ont conduit à une augmentation exponentielle de la quantité de médias, tout en facilitant la possibilité de les trouver, les partager, les utiliser dans un but pédagogique et les rechercher. Des millions d’heures de programmes télévisés déjà numérisés par diverses bibliothèques nationales et musées des médias, quatre millions de pages de journaux américains de 1836 à 1922 numérisées (www.chroniclingamerica.loc.gov), 150 milliards d’instantanés de pages web capturées depuis 1996 (www.archive.org) et des trillons de vidéos sur YouTube ou de photos sur Facebook ainsi que bon nombre d’autres sources médiatiques attendent que l’on puise dans leur réserve.

Comment explorer de manière efficace ces gigantesques collections d’images numériques de manière à soulever des questions pertinentes ? Parmi les exemples de telles collections on peut citer les 167 000 images de la galerie Flickr d’Art Now, les 176 000 clichés de la Farm Security Administration/Office of War Information pris entre 1935 et 1944 et numérisés par la bibliothèque du Congrès américain. Comment travailler avec de tels ensembles d’images ? La méthode de base employée par les chercheurs des médias alors que le nombre d’éléments médiatiques était encore relativement faible — visualiser toutes les images ou les vidéos, isoler des tendances et les interpréter — ne fonctionne plus.

Si l’on considère la taille des collections contemporaines de médias, il tout est simplement impossible de visualiser leur contenu avant même de commencer à formuler des questions et hypothèses, voire de sélectionner des échantillons destinés à une analyse plus pointue. Même s’il on peut penser que cela provient des les limites de la vision et l’absorption de l’information humaines, à mon avis, le problème réside davantage dans le design actuel des interfaces. En effet, les interfaces populaires qui permettent d’accéder aux collections de médias numériques telles que les listes, les galeries d’images et les bandes d’images ne nous permettent pas de voir l’intégralité du contenu de la collection. D’ordinaire, ces interfaces ne montrent que quelques éléments dans un même temps, indépendamment du mode utilisé, que ce soit la navigation ou la recherche. L’impossibilité de visualiser une collection dans son ensemble nous empêche de comparer des séries d’images ou de vidéos, de dégager des tendances d’évolution sur une durée ou d’appréhender une partie de la collection au regard de l’ensemble.

Contre la recherche : comment chercher sans savoir ce que l’ont veut trouver.
Les technologies populaires d’accès aux médias des XIXe et XXe siècles — les lanternes magiques, projecteurs de films, Moviola et Steenbeck, tourne-disques, enregistreurs audio et vidéos, magnétoscopes, lecteurs DVD, etc. — avaient été conçues pour accéder à un seul média à la fois, à une vitesse limitée. Ceci allait de pair avec l’organisation de la diffusion des médias : magasins de disques et de vidéos, bibliothèques, diffuseurs télévision et radio mettaient seulement à disposition quelques éléments à la fois. Dans un même temps, les systèmes de classification hiérarchiques utilisés dans les catalogues et les salles de bibliothèques encourageaient les utilisateurs à accéder à une collection par le biais des schémas de classification figés, à l’inverse d’un parcours soumis au hasard. Quand vous consultiez un catalogue de fiches ou vous déplaciez physiquement d’étagère en étagère, vous suiviez une classification basée sur des sujets, avec des livres rangés par noms d’auteur à l’intérieur de chaque catégorie. Ainsi, bien qu’un seul livre puisse lui-même s’inscrire dans un mode aléatoire, ce n’était pas le cas pour les plus grandes structures dans lequel les livres et autres médias étaient rangés.

Ensemble, ces systèmes de classification et de diffusion amenaient les chercheurs en médias du XXe siècle à décider de l’objet médiatique à étudier. Un chercheur commençait habituellement par un individu spécifique (un réalisateur, un photographe, etc.) ou une catégorie spécifique (par exemple : Le cinéma expérimental américain des années 60). En procédant ainsi, il était dit d’un chercheur qu’il se déplaçait de haut en bas dans la hiérarchie de l’information d’un catalogue et choisissait ainsi un niveau spécifique comme sujet de son projet : cinéma > cinéma américain > cinéma américain expérimental > cinéma américain expérimental des années 60. Les plus téméraires ajoutaient de nouvelles ramifications à l’arbre des catégories, la plupart se satisfaisaient d’ajouter de simples feuilles (articles et ouvrages).

Malheureusement la nouvelle norme d’accès aux médias — la recherche sur ordinateur — ne nous éloigne pas de ce paradigme. L’interface de recherche est une page blanche qui attend que l’on y tape quelque chose. Avant de cliquer sur le bouton « recherche », vous devez décider des mots et expressions clés à rechercher. Alors, tandis que la recherche permet une accélération spectaculaire de l’accès à l’information, sa grande préconception (dont on peut sans doute retracer l’origine à la « récupération d’information » des années 50) est que vous connaissez en amont la collection digne d’une exploration plus poussée.

En d’autres termes : la recherche part du principe que vous souhaitez trouver une aiguille dans la botte de foin de l’information. Elle ne vous permet pas de voir la forme de la botte de foin en elle-même. Si c’était le cas, cela vous procurera d’autres idées sur les éléments à chercher, en dehors de l’aiguille à laquelle vous pensiez au départ. Par ailleurs, la recherche ne révèle pas la localisation de toutes les aiguilles. C’est-à-dire qu’elle ne montre pas la manière dont des données ou ensembles de données spécifiques sont liés à la globalité de ces données. L’utilisation de l’outil de recherche s’apparente à la vision rapprochée d’une peinture pointilliste où l’on peut seulement percevoir les points de couleur sans pouvoir zoomer en arrière pour dégager des formes.

Kingdom Hearts II (videogame transversal). William Huber & Lev Manovich, 2009

Kingdom Hearts II (videogame transversal). William Huber & Lev Manovich, 2009 / Kingdom Hearts II (Square-Enix Inc., 2005). Photo: D.R.

Le paradigme de l’hypertexte qui définit le World Wide Web est également limité : il permet la navigation à travers des pages dans la globalité du web en fonction de liens définis par des tiers, à l’inverse d’un mouvement libre dans ses directions. Ceci corrobore la vision originale de l’hypertexte telle que l’avait définie Vannevar Bush en 1945 : une manière pour le chercheur de créer des traces à travers l’immensité des informations scientifiques permettant à d’autres de retrouver plus tard ces mêmes traces.

Sur la base de mon étude sur quelques unes des plus grandes collection de médias en ligne disponibles aujourd’hui telles qu’europeana.org, archive.org, les collections numériques de la bibliothèque du Congrès américain et artstor.org, je distingue une interface type qui propose aux utilisateurs de naviguer de manière linéaire à travers une collection ou par le biais de catégories, de tags thématiques et d’effectuer une recherche en utilisant des métadonnées enregistrées pour chaque objet médiatique. Dans chacun des cas, les catégories, les tags et les métadonnées ont été insérés par les archivistes (aucun des sites que j’ai visité n’offrait des tags générés par les utilisateurs). De ce fait, lorsqu’un internaute accède aux collections institutionnelles de médias par le biais de leurs sites, il peut uniquement se déplacer selon un nombre de trajectoires déterminées par la taxinomie de la collection et les types de métadonnées employées pour décrire les données.

Par contraste, lorsqu’on observe une scène de la vie réelle en direct, avec ses yeux, on peut regarder dans tous les sens. Ceci permet de distinguer rapidement divers schémas, structures et liens. Imaginez, par exemple, que vous tourniez au coin d’une rue et que vous ayez dans votre champ de vision une place ouverte avec des passants, des cafés, des voitures, des arbres, des panneaux publicitaires, des vitrines de magasins et autres éléments… Vous pourriez rapidement détecter et suivre une multitude de motifs qui changent de manière dynamique sur la base d’une information visuelle et sémantique : des voitures se déplaçant le long de lignes parallèles, des maisons peintes de couleur similaire, des gens qui suivent le cours de leur trajectoire et d’autres en train de parler, des visages étranges, des vitrines qui se démarquent du reste, etc.

Nous avons besoin de techniques similaires qui nous permettent d’observer de vastes « univers de médias » et de détecter rapidement les tendances pertinentes. Ces techniques se doivent d’opérer à une vitesse bien supérieure à celle du visionnage (des médias basé sur le temps réel). Alternativement, elles doivent utiliser des images fixes. Je devrais pouvoir visualiser une information importante concernant un million de photos dans le temps habituellement requis pour visionner une seule image. Ces techniques se doivent de compresser les gigantesques univers de médias en « paysages » de médias plus petits et observables, compatibles avec la capacité humaine à traiter l’information. En même temps, elles doivent pouvoir conserver assez de détails issus des images, des vidéos, des sons ou des expériences interactives pour permettre une étude des tendances subtils au sein des données.

Visualisation des médias
Les limites des interfaces type des collections de médias en ligne valent aussi pour les interfaces des bureaux d’ordinateurs et des applications de téléphones portables qui permettent de visionner, cataloguer et sélectionner tout comme les sites qui hébergent des médias. Il en va de même pour les sites de collection spécialisés, les gestionnaires de médias et les sites d’hébergement permettant aux utilisateurs de naviguer et de rechercher des images et des vidéos et d’afficher les résultats dans différents formats. Leur utilité en tant qu’outils de recherche reste cependant très limitée. Des applications d’ordinateurs telles qu’iPhoto, Picasa, Adobe Bridge et des sites de partage d’images comme Flickr et Photobucket ne peuvent montrer que des images dans un nombre limité de formats fixes — généralement une grille à deux dimensions, une bande linéaire, un diaporama et, dans certains cas, une vue cartographiée (des photos superposées sur la carte du monde). Les images sont habituellement classées par date de téléchargement; pour afficher des photos dans un ordre différent, l’utilisateur doit passer du temps à ajouter de nouvelles métadonnées à toutes les images. Il ne peut organiser les images automatiquement selon leurs propriétés visuelles ou leurs relations sémantiques, ni comparer des collections susceptibles de contenir des centaines de milliers d’images ajoutées les unes aux autres, ni utiliser des techniques de visualisation d’informations afin d’explorer les tendances à travers des séries d’images.

Les outils graphiques et de visualisation — Google Docs Excel, Tableau, Many Eyes et autres logiciels graphiques et feuilles de calcul — offrent un éventail de techniques de visualisation conçu pour montrer des données. Mais ces outils ont eux aussi leurs limites. Un principe clé qui sous-tend la création de graphiques et de visualisation de l’information est la représentation de données à l’aide de points, de barres, de lignes et autres représentations archaïques Ce principe est resté immuable entre les premiers graphiques statistiques du début du XIXe siècle et les logiciels contemporains de visualisation interactive, qui peuvent opérer avec de grands ensembles de données. Bien que ces représentations indiquent clairement les relations dans un ensemble de données, elles cachent aussi les objets derrière les données de l’utilisateur. S’il est parfaitement adapté à de nombreux types de données, dans le cas d’images et de vidéos, ce modèle devient un sérieux obstacle. Par exemple, un diagramme 2D montrant une répartition des notes dans une classe avec chaque élève représenté par un point remplit son objectif, mais l »utilisation du même type de graphique pour représenter les tendances stylistiques au cours de la carrière d’un artiste à travers des points est plus limitée si nous ne pouvons visualiser les œuvres d’art.

Depuis 2008, mon projet Software Studies Initiative a mis au point des techniques visuelles qui associent la force des applications de visionnage à celle des applications de graphisme et de visualisation. Comme ces derniers, elles génèrent des graphiques qui montrent les relations et les tendances dans un groupe de données. Cependant, alors que logiciels qui créent des diagrammes peuvent seulement afficher les données sous forme de points, de lignes ou autres graphismes archaïques, notre logiciel peut montrer toutes les images d’une collection superposées sur un graphique. Nous appelons cette méthode la visualisation de médias (ou mediavis).

Mapping Time. Jeremy Douglass & Lev Manovich, 2009. Couvertures des différentes éditions du Time magazine par ordre de publication de 1923 à l'été 2009.

Mapping Time. Jeremy Douglass & Lev Manovich, 2009. Couvertures des différentes éditions du Time magazine par ordre de publication de 1923 à l’été 2009. Nombre de couvertures utilisées au total : 4535.

Une visualisation de l’information type consiste à d’abord traduire le monde en nombres et ensuite à visualiser les relations entre ces nombres. En revanche, la visualisation des médias se traduit par un ensemble d’images dans une représentation visuelle, qui peut révéler des tendances parmi les images. En bref, les images sont converties en images. Les deux visualisations de la même série de données exposées ci-après illustrent les différences entre infovis (visualisation d’informations) et mediavis (visualisation de médias). Les deux visualisations utilisent la technique familière du tracé de dispersion de points. Cependant la deuxième ajoute des images sur les points. La première visualisation montre la distribution des données, la seconde nous permet de comprendre ce qui se trouve derrière les points.

Les données utilisées pour ces visualisations sont 1.074.790 pages de mangas (bande dessinée japonaise). La première visualisation représente chaque page par un point. La deuxième visualisation utilise des copies de pages réduites à la place des points. Pour produire ces visualisations, nous avons mesuré un certain nombre de caractéristiques visuelles de chaque page: le contraste, le nombre de lignes, les propriétés de la texture, etc. Nous utilisons ensuite une des mesures pour placer les données sur l’axe des X, alors qu’une autre mesure est utilisée pour placer des données sur l’axe des Y. Cette méthode nous permet d’organiser les images selon leurs caractéristiques visuelles par rapport à deux dimensions.

Dans cette visualisation, les pages de la partie inférieure de la visualisation sont les plus graphiques et ont le moins de détails et de texture. Les pages en haut à droite possèdent une grande quantité de détail et de texture. Les pages au contraste plus élevé sont sur la droite, tandis que les pages au contraste le plus faible sont sur la gauche. Entre ces quatre extrêmes, nous trouvons chaque variation stylistique possible. Pour rendre tout cela plus facile à voir, nous avons inclus deux gros plans des parties inférieures et supérieures.

Que nous enseigne cette visualisation ? Elle suggère que notre concept fondamental de «style» n’est pas forcément approprié, nous considérons ensuite les grands ensembles de données culturelles. Le concept présuppose que nous puissions diviser d’un ensemble d’artéfacts culturels en un petit nombre de catégories distinctes. Dans le cas de notre ensemble d’un million de pages, nous constatons que les variations graphiques sont quasiment infinies. Si nous essayions de diviser cet espace en catégories stylistiques distinctes, une telle tentative deviendrait arbitraire. La visualisation distingue également les choix graphiques les plus couramment utilisés par les artistes de manga (dans la partie centrale du « nuage » de pages) et ceux semble-t-il plus rarement utilisés (en bas et à gauche).

Nos techniques de visualisation de médias peuvent être utilisés indépendamment ou en combinaison avec l’étude de l’image numérique. L’étude de l’image numérique est conceptuellement semblable à l’analyse automatique de textes déjà largement utilisée dans les sciences humaines numériques. L’analyse de texte consiste à extraire automatiquement différentes statistiques du contenu de chaque texte au sein d’une collection, comme les fréquences d’utilisation, la longueur et la position des mots, la longueur des phrases, les fréquences d’utilisation des noms et des verbes etc. Ces statistiques (appelés « caractéristiques » en sciences de l’informatique) sont ensuite utilisées pour étudier les tendances dans un texte unique et les relations entre des genres littéraires, des textes, etc.

De même, nous pouvons utiliser le traitement de l’image numérique pour calculer les statistiques de diverses propriétés visuelles des images : la luminosité et la saturation moyenne, le nombre et les propriétés des formes, le nombre d’arêtes et de leurs orientations, les couleurs-clés et ainsi de suite. Ces fonctionnalités peuvent ensuite être utilisées pour des études similaires — par exemple, l’analyse des différences visuelles entre les nouvelles photographies dans plusieurs magazines ou entre les photographies de presse de différents pays, les changements de style visuel au cours de la carrière d’un photographe ou l’évolution de la photographie de presse en général au cours du XXe siècle. Nous pouvons également les utiliser de manière plus élémentaire — pour l’exploration initiale de n’importe quelle grande collection d’images.

 

Lev Manovich
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

 

Lev Manovich est un théoricien de l’étude des médias et des sciences humaines numériques. Il est professeur au département des arts visuels de l’Université de Californie – San Diego (UCSD) où il enseigne l’art numérique, l’histoire et la théorie de la culture numérique. Il dirige également le Software Studies Initiative au California Institute for Telecommunications and Information Technology (CALIT2). Fondé en 2007, ce laboratoire mène des recherches sur un nouveau paradigme d' »analytiques culturel » (cultural analytics); terme inventé par Manovich pour désigner l’utilisation de méthodes de calcul relatives à l’analyse d’ensembles massifs de données et de flux culturels. L’objectif du Software Studies Initiative est de développer des techniques et des logiciels libres, en les appliquant progressivement à des groupes d’image et de vidéo de plus en plus grands afin de mieux comprendre le fonctionnement de la culture.

La production architecturale contemporaine utilise un nombre croissant d’outils informatiques soumis à une prolifération constante de fonctions et d’allocations changeantes dans le processus du design. Au début des années 1990, les programmes de dessin à disposition n’étaient rien de plus qu’une transposition numérique de processus analogiques et leur accessibilité, leurs fonctions de modélisation et leur puissance de calcul restaient limitées.

Solides cellulaires contrôlable paramétriquement basés sur une topologie optimisée et une pression principale, Daniel Buening / Professeur de Design Numérique et Expérimental. Palz – Université des Arts de Berlin

Aujourd’hui, les outils informatiques de l’architecture ont proliféré dans leur champ d’application et de fonctionnalités, complétés par des processus de fabrication contrôlés numériquement, étendant ainsi leur impact à la fabrication directe. La séparation initiale entre designer et fabricant, qui avait perduré à travers les siècles en architecture, a été modifiée par l’avènement d’un architecte qualifié en informatique et ayant accès à la technologie de fabrication. De nos jours, la fabrication assistée par ordinateur peut être contrôlée numériquement par les architectes et permet une mise en œuvre plus avancée de leurs concepts de design dans la construction, l’apparence et l’agencement des structures architecturales, des surfaces et des espaces. Par conséquent, est-ce que des matériaux plats, tels que des plaques d’acier ou des planches, économiques à découper au laser 2D ou au jet d’eau peuvent se transformer en volumes modelés et assemblés individuellement pour créer une expérience spatiale continue et curviligne… Expérience auparavant inconcevable sans l’intervention de l’ordinateur pour guider les procédés de fabrication : la répartition spatiale aurait été trop complexe et difficile à maîtriser. Similaires aux techniques de drapage utilisées en stylisme de mode (où un textile lisse est plié en une forme tridimensionnelle complexe), grâce à une interaction entre les éléments, la géométrie et la technologie, ces nouveaux modèles créent une apparence complexe dans l’espace. La fabrication de ces technologies qui complètent les opérations de design numérique peut être ici différenciée avec, d’une part, les processus de synthèse soustractive comme le fraisage 3-5 axes, la découpe au laser ou au jet d’eau, où la matière est soustraite d’un volume donné par un dispositif d’outillage et, d’autre part, des processus additifs, produisant une pièce par l’assemblage contrôlé de strates de matériau.

Les méthodes soustractives, qui découpent ou broient entièrement des couches de matériaux peuvent être interprétées comme l’amélioration d’un jeu d’outils traditionnels de travail sur les matières. Les technologies de fraisage s’apparentent à un processus automatisé de sculpture; la découpe guidée par ordinateur remplace ainsi le processus obsolète et laborieux de séparation des matériaux à l’aide de couteaux ou de lames. Grâce à la technologie, les caractéristiques historiques apportées par la réduction manuelle du matériel ont été prolongées, amplifiées et affinées par une précision mécanique plus détaillée, de plus grandes échelles, des cycles de production plus rapides et un plus large choix de matériaux, où l’homme a un rôle de contrôle et de design. La mise en œuvre de cette technologie en architecture s’étend au design ornemental des surfaces en trois dimensions, où les guides de la trajectoire de fabrication sont contrôlés d’un point de vue artistique et ajoutent une articulation affinée au matériau de surface en trois dimensions. Ainsi, la machine n’est plus seulement utilisée pour matérialiser un objet de design aussi précisément que possible, mais comme un nouvel instrument de façonnage architectural qui intègre son mode de production pour apporter une présence esthétique de l’objet ainsi créé.

À l’inverse, la fabrication additive est un terme collectif relatif à une série de procédés de fabrication novateurs qui permettent l’assemblage en strates verticales d’un contenu numérique en trois dimensions dans une large gamme de matériaux allant de polymères au plâtre en passant par les matériaux biodégradables, les alliages métalliques et autres matériaux. Le volume numérique destiné à être fabriqué par un tel procédé peut être d’une grande complexité géométrique, ce qui permet à des objets très détaillés d’être imprimés avec la même célérité que des figures géométriques simples, car le volume est construit par couches transversales de matériaux disposées verticalement dans un ordre chronologique. Les facteurs qui déterminent l’ampleur des détails réalisables sont uniquement définis par le processus de fabrication additif qui transmet l’information relative à la géométrie initiale, par sections, à la tête d’impression ou au faisceau laser qui fait fondre, fritte/agglomère ou colle les matériaux jusqu’à obtenir une forme stable. Cette indépendance de la géométrie et du temps de fabrication représente l’une des propriétés novatrices clé de cette technologie.

La courbe de progression de la technologie est abrupte. Les premiers processus industriels introduits par des systèmes 3D à la fin des années 1980 restaient à petite échelle et utilisaient des couches épaisses, mais il y a aujourd’hui de véritables améliorations dans les matériaux imprimés et dans l’échelle de la production globale. En 2008, la société Objet Geometries a introduit la technologie Connex qui permet la fabrication additive incluant jusqu’à quatorze polymères simultanés dans un processus de construction unique. Ces matériaux peuvent varier dans leurs propriétés élastiques ou leur translucidité et être assemblés pour la production de modèles aux propriétés haptiques (de toucher et de sensation) réalistes. À la même époque, Enrico Dini a développé le processus D-shape (D-forme) qui utilise une presse et des granulés de pierre naturelle pour fabriquer de manière additive des composants à l’échelle d’une construction pouvant atteindre jusqu’à 6m x 6m x 6m. Compte tenu du fait que la fabrication additive facilite grandement la matérialisation d’une complexité géométrique, l’importance des opérations géométriques informatiques sophistiquées s’est accrue au sein de l’activité du designer s’agissant de définir le sujet de tels procédés de matérialisation.

Drapé – Cronenberg #1. Norbert Palz / Daniel Büning / Photo: D.R.

Le niveau d’abstraction induit par ces processus de modélisation ouvre amplement la voie à la mise en œuvre de pilotes de mise en forme d’une variété de sources entremêlées dans un code collectif et une morphologie géométrique, qui dépassent le cliché préconçu du designer. La structure de ces logiciels introduit une relation différente entre le designer et le design en modifiant l’étape où le façonnage pourrait être amorcé. Traditionnellement, la pratique du design suivait le protocole de la géométrie descriptive dans lequel l’architecte travaillait sur une série de dessins codifiés tels les structures élevées, les plans d’étages et les différentes sections pour aboutir à un design final. Il fallait opérer des changements de design dans chaque dessin individuel et le processus de représentation graphique lors de la phase de design rendait l’entreprise laborieuse. La pratique informatique contemporaine fonctionne toujours dans un espace tridimensionnel représenté sur un écran par une image en deux dimensions, mais les dessins en deux dimensions peuvent être extraits à souhait du modèle numérique. Les éléments géométriques du design sont, en outre, interconnectés paramétriquement, des modifications opérées sur un élément se reflètent dans l’apparence de l’autre. Si nous imaginons une grille en trois dimensions construite à partir de cubes ou de sphères, un programme de dessin géométrique classique nécessiterait une redéfinition de l’assemblage de la grille tout entière chaque fois qu’un changement général de l’un des éléments devrait se produire. Dans un modèle paramétrique contemporain, les différents paramètres qui définissent cette grille et les éléments qui en dépendent sont liés numériquement et peuvent être modifiés à volonté et, par conséquent, leur apparence tridimensionnelle est remise à jour en tant que réaction à un changement de la dimension initiale. Des problématiques concurrentes, comme les programmes, la performance environnementale et économique, ainsi que des entités moins évidentes comme la stratégie du design individuel, forment le processus de façonnage numérique et doivent être fusionnées en un système cohérent de relations géométriques.

La machine à géométrie construite par ces canaux de relations entrelacées interprète et modifie de façon dynamique les champs organiques de l’information qui dirigent clairement l’orientation du design. Ces paramètres peuvent recevoir des informations de façonnage issues de nombreuses sources, comme des assertions logiques codées ou des valeurs numériques récoltées dans les dépendances de mathématiques ou même des traductions numériques d’images employées à cet effet. Cette ouverture à de nombreux mécanismes de façonnage élargit l’amplitude du design architectural et artistique dans la mesure où les transpositions, interconnexions et ré-applications de facteurs de façonnage employés ont été facilitées. Cette règle simple définit le degré d’ouverture d’une façade selon le gain d’énergie solaire. La fonction du bâtiment peut ainsi suffire à déterminer la distribution progressive de dispositifs d’ombrage adaptés à chaque ouverture individuelle. Les changements sur ce design ne sont pas opérés sur un élément isolé du bâtiment, mais obtenus par une modification de la règle initiale qui entame une nouvelle itération du design. Ce processus, qui représente une dérogation importante au protocole géométrique euclidien dans lequel chaque élément d’un modèle est dessiné individuellement, mélange des mises en forme de différents types de données dans un tissu interconnecté d’origine artistique, mathématique et informatique. La complexité émergente apparente dans de tels designs développe les matérialisations entièrement pré-concevables, pragmatiques et rationnelles des époques précédentes et favorise les chevauchements géométriques et numériques qui apportent leur propre langue officielle et une nouvelle esthétique de l’irrégularité locale. Cette maitrise des contenus géométriques numériques extrêmement détaillés et irréguliers peut à présent être exploitée pour l’étalonnage local de matériaux et de composants de construction grâce au contrôle informatique de sa structure et de sa composition interne susceptible d’être conçu, analysée et plus tard fabriquée de manière additive dans une chaîne numérique unique. Mais quelles peuvent être les conséquences d’une telle matérialité numérique sur le processus de design architectural ?

Les progrès historiques de l’architecture et du design ont souvent découlé d’innovations dans la technologie de la construction et de la découverte de nouveaux matériaux. Cependant, leur mise en œuvre n’a pas toujours connu un succès immédiat. Les premières structures de génie civil créées après l’invention de la fonte au XVIIIe siècle appliquaient encore les principes structurels de la maçonnerie et des constructions en bois au lieu de tirer pleinement profit des propriétés structurelles du nouveau matériau ajouté au répertoire formel de l’architecture. Dans l’exemple classique du pont de Coalbrookdale (1777-79), on peut vérifier cette mise en application erronée en ce que les joints des éléments en fer ont été conçus comme des liaisons en bois et contiennent donc des composants inutiles sur le plan structurel. Il a fallu attendre de nombreuses années avant que le fer et l’acier révolutionnent le répertoire architectural grâce à leur structure légère et efficace comme on peut le constater dans le célèbre Crystal Palace de Joseph Paxton (1851). Plus tard, le béton armé a permis à de grandes structures étalées d’être construites avec des capacités simultanées de résistance à la pression et au poids comme le montrent, entre autres, les bâtiments pionniers de Pier Luigi Nervi et Eero Saarinen.

Design informatique de structures solides cellulaires à porosité graduelle contrôlable paramétriquement, Daniel Buening / Professeur de Design Numérique et Expérimental. Palz – Université des Arts de Berlin

La fabrication additive, par contraste, permet à un nouveau processus de design d’émerger, qui considère le matériau non pas comme une propriété homogène dont l’application traditionnelle serait basée sur des siècles de pratique et de répétition économique efficace, mais plutôt comme une constellation structurelle unique et variable de matières dans l’espace qui peut être conçue numériquement et s’est concrétisée à différentes échelles. Ces matériaux contiennent des propriétés structurelles en trois dimensions qui s’inscrivent dans le flux. La perspective de créer additivement des matériaux aux compositions internes et au choix de matières sur-mesure laisse envisager une contribution utile aux méthodes de fabrication contemporaines en termes d’efficacité structurelle, de réduction de la consommation de matériaux et de fonctionnalités innovantes et esthétiques des éléments créés en conséquence. La matière, la forme et la géométrie sont désormais intrinsèquement liées et peuvent développer une morphologie unique à chaque modification de leurs conditions limitatives.

Pourtant, dans l’architecture les questions théoriques naissent de ces potentiels, qui remettent en cause la notion traditionnelle du caractère et de la fonctionnalité des matériaux. L’étalonnage numérique guidé et la construction de nouvelles structures et formations envisagées ici modifient le dialogue historique sur la cohérence des matériaux, des structures et des formes présentes dans l’architecture depuis Aristote et Louis Kahn (entre autres). Il se peut donc que les designs architecturaux à venir soient fondés sur une solution structurelle mieux adaptée à un matériau donné avec des propriétés plus ou moins connues, mais il se peut aussi qu’à l’inverse un processus adapte un matériau approprié, doté de caractéristiques progressives uniques, à une forme ou une performance donnée. La complexité performative est alors atteinte non pas par le biais d’ensembles mécaniques complexes, mais à travers des matières localement différenciées. L’ordre constructif propre au Modernisme séparait les éléments des constructions par leurs fonctions hiérarchiques de support de charge et démontrait une rationalité et des dimensions qui débordaient souvent de l’échelle humaine.

Ce processus de construction séquentielle qui ajoute des couches de matériau était (et reste) responsable de la plupart des apparences historiques et contemporaines de l’architecture. L’enveloppe d’un bâtiment peut à l’avenir être transposée presque littéralement en associant les différentes couches de fonctionnalités individuelles à un élément de renforcement intégré, fabriqué a posteriori de manière additive. Ainsi, l’adoption éventuelle de plusieurs fonctions de construction dans un tel composant de construction unique peut s’enrichir de connaissances scientifiques relatives à la biologie et à la botanique. Les structures osseuses spongieuses qui modifient leurs morphologies cellulaires en fonction d’une charge spécifique forment un exemple tout à fait transposable par un processus informatique. Un bloc de construction cellulaire adapté, composé d’éléments géométriques fondés sur une base de données numériques pourrait être présenté parallèlement à l’analyse informatique des pressions ou des forces envisageables et fournir une morphologie définie localement et axée sur une performance juste et précise. La modulation d’éléments morphologiquement différenciés pour un objectif partagé, structural, logistique ou esthétique introduit un changement d’échelle et accorde de la valeur à la localité et à la différence individuelle, encourageant une perception simplifiée et moins hiérarchique de cette construction tectonique.

De telles unités modulaires de construction intégrées qui doivent être assemblées dans un nouveau mode de construction auront inévitablement une incidence sur la présence de l’architecture et établiront ainsi un nouveau langage de construction et d’ordre fonctionnel basé sur une nouvelle séquence d’assemblage structurel. Ces structures complexes peuvent, d’une part, être transposées à des éléments de construction classiques comme les murs, les toits et les colonnes et, d’autre part, initier une typologie nouvelle et sans précédent de composants architecturaux où le rôle de l’articulation qui associe ces éléments revêt une importance et une présence nouvelles. Ces éléments se prévalent de différentes manières des propriétés de la fabrication additive et peuvent offrir des résultats morphologiques sans précédent qui introduisent une nouvelle variation et une échelle humaine dans les éléments de construction. Grâce à l’intégration d’avantages propres à la fabrication additive, un nouveau langage tectonique autonome peut évoluer jusqu’à transformer de manière radicale notre pratique traditionnelle de l’architecture.

 

Norbert Palz
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

Norbert Palz est professeur en Design Numérique et Construction à la Muenster School of Architecture et à l’Academy of Art de Berlin (UdK) où il occupe la Chaire de « design numérique et expérimental » dans la section Architecture.

déconstruction sonore

Julien Ottavi est un intellectuel contemporain hybride très intéressant, capable d’explorer et d’associer un activisme médiatique à la composition sonore, à la poésie, au cinéma expérimental et à l’anarchitecture. Il est membre fondateur du collectif Apo33 (une association prolifique dans les domaines interdisciplinaires de l’art et de la technologie alliant recherche, expérimentation et intervention sociale) dont l’ADN se situe dans la fusion de l’art sonore, du live-vidéo, des nouvelles technologies et des performances physiques et dans le développement d’outils matériels et logiciels destinés à des projets créatifs,

Julien Ottavi – The Noiser.

Julien Ottavi – The Noiser. Photo : Julien Ottavi/Apo33 (Copyleft)

Depuis 1997, Ottavi développe un travail de composition qui utilise la déconstruction de la voix et la fragmentation de processus grâce au montage numérique. Durant de nombreuses années, en tant que développeur audio et vidéo par le biais de Pure Data, il a fouillé les réserves de l’électronique et construit à partir de matériaux non-conventionnels ou obsolètes, tout en maintenant une posture « militante » quant au partage des connaissances sur le développement technologique, un cheminement qui a conduit à la création d’APODIO, un système d’exploitation Gnu/Linux dédié à l’art numérique. Il suit de manière inconditionnelle la philosophie de l’open source, interprétée comme une ouverture complète, libérée du carcan de la propriété intellectuelle, des idées classiques de l’auteur en tant que créateur individuel et des œuvres d’art issues de talents uniques et individuels. Parti de la scène underground de Nantes jusqu’à atteindre une dimension mondiale, son travail se caractérise par une approche fluide qui se démarque par l’émancipation constante des catégories stylistiques et de fonctionnelles.

Comment est née l’idée d’Apo33 ? De nos jours, un collectif lié à un contexte artistique militant qui guide son travail sur les nouveaux médias n’est plus exceptionnel, mais peut-être l’était-il lorsque vous avez commencé ?
Apo33 a débuté en 1996. L’idée originale était d’apporter à Nantes la musique bruitiste et expérimentale, les performances, tous ces genres qui n’étaient pas représentés dans les médias grand public. Au début des années 2000, nous avons évolué vers la production, la recherche et la promotion de nos propres œuvres d’art. Lorsque nous avons commencé à hybrider l’art, les technologies, l’écologie, la philosophie et la théorie, c’était absolument nouveau en termes d’organisations transdisciplinaires. Nous collaborions alors beaucoup avec des organisations militantes, des médias et associations politiques alternatifs, des collectifs d’art, des organisations travaillant autour des logiciels libres, des nouvelles technologies, du copyleft et, enfin, d’autres groupes versés dans la théorie et la philosophie. Cependant, il était rare que ces organisations mélangent tous ces éléments de manière non-hiérarchique. Aujourd’hui, ces pratiques sont plus répandues et on trouve plusieurs collectifs comme Apo33 dans le monde entier. Cela nous réjouit parce qu’il est important que ces modes d’organisation se multiplient de manière virale et sèment de nouvelles graines dans le quotidien des gens.

Je trouve particulièrement intéressant de lier les changements technologiques et socio-économiques de l’ »information / communication / économie » aux concepts de production et de consommation qui excluent la participation directe de l’argent. Je pense à ces soi-disant « activités économiques non-monétaires » qui sont difficiles à quantifier à travers des indicateurs monétaires, mais susceptibles d’être mieux expliquées par les catégories des médias numériques, des réseaux et de l’esthétique du flux (1).
À vrai dire, ce n’était pas le premier lien, mais à un moment donné il a pris de l’importance parce que nous voulions survivre grâce à notre art, sans avoir pour autant à vendre notre âme. Nous voulions, et voulons encore, rester cohérents par rapport à nos aspirations. Tu produis de l’art, des logiciels, du savoir, des outils que tu partages avec ta communauté, tu ne vends pas de produits dans le but de dégager un bénéfice. Si tu vends quelque chose, ce sera lié à des services, des processus de production, etc. Le mouvement du copyleft apporte de nouveaux paradigmes d’échange économique basés sur les relations sociales et des échanges de « principe », par opposition au capitalisme dont les objectifs sont l’exploitation des travailleurs et le profit issu de tout produit possible, y compris de l’argent (en tant qu’objet virtuel), des productions de masse, de l’épuisement de la nature (terre, ressources, animaux, etc.) et des activités humaines (art, agriculture, énergies, sciences, logement, etc.).

Depuis quelques années, les logiciels libres sont impliqués dans la pratique de réseau. C’est par le biais de ces réseaux originels que le code source a pu circuler; il a été partagé, copié, modifié. Le logiciel libre n’a pu être développé qu’à partir d’un effort collaboratif, de projets, programmations, corrections et beta-tests multi-auteurs. Dès le départ, le projet du « libre » s’est intégré à la pratique d’Internet et du réseau. Sans les logiciels libres et les options de licences affranchies du droit d’auteur, la notion de réseaux numériques se serait trouvée elle-même limitée à des sites payants ou contrôlés par des sociétés privées. Alors que ces sociétés sont manifestement présentes dans le système actuel, elles doivent rivaliser avec des structures plus ouvertes, qui s’ajoutent à une variété de produits issus de la libre circulation, telle que des logiciels, des textes, des idées, de la documentation, des outils de distribution, de communauté, d’entraide, des forums, des modes de partage, etc. Plusieurs formes de création associées à des notions contemporaines de réseaux, de partages et de collaborations ont été mises au point à l’intérieur et en dehors d’Internet…

Lorsque l’auteur se démultiplie, dix fois, mille fois, lorsque la machine (prothèse de l’être humain) devient créatrice autonome et quasi-indépendante, nous pourrions y voir une nouvelle société en pleine émergence où des visions neuves se mêlent et s’entremêlent, s’accumulent et explosent, de nouveaux espoirs surgissent menant à des transformations. Les transformations machiniques ont mené au chaos, à des comportements étranges et inouïs. À présent, nous courrons dans l’obscurité avec la peur comme seul éclairage; peut-être vers notre extermination, comme Icare visant le soleil, essayant de disparaître dans le soleil. Mais en quoi cela est-il lié à des pratiques artistiques ? Peut-être que ces pratiques ne font que refléter nos champs de vision, nos désirs, nos fantômes ? Le désir est peut-être nécessaire à notre transformation, et nous avons besoin de créer des machines, par le biais de réseaux, de participer collectivement à une œuvre d’art incommensurable et interminable, avec des réseaux agissant comme autant de multiplicateurs d’une myriade de permutations.

Que pensez-vous de la scène musicale actuelle du glitch ? Ce type d’expression est souvent basé sur une esthétique de l’erreur avec une matrice post-structurale et trouve son orientation conceptuelle dans le slogan de Deleuze et Guattari : Les machines désirantes ne marchent que détraquées (2). Est-ce que cela exprime également votre point de vue politique ?
Il est intéressant de se pencher sur la question de l’erreur dans l’art en général, de la musique improvisée au cinéma expérimental. Le glitch, l’erreur numérique, le bug, la saleté sont très importants pour les modes d’expression émergents : ils créent de nouvelles façons de jouer avec le medium ou donner des outils à l’artiste. Dans le cas de l’ordinateur, tout le monde est confronté à sa limite. Sa technologie est loin d’être parfaite et, en ce moment, il se multiplie sans fin, ce qui a pour résultat des décharges en Inde, en Afrique ou en Chine, où les pauvres et les enfants sont intoxiqués par le recyclage de composants dangereux qui forment ces outils. Nous devons non seulement aller au-delà de l’idée de simplement faire de la musique ou de l’art numérique, mais aussi il nous faut prendre en compte l’aspect du recyclage. La philosophie GNU/Linux et les nouvelles pratiques de recyclage des machines pour de nouvelles utilisations devraient pouvoir inspirer des artistes dans leur musique et dans leur production artistique.

Apo33, L’oiseau et l’autre, installation sonore basée sur des chants d'oiseaux, 2012.

Apo33, L’oiseau et l’autre, installation sonore basée sur des chants d’oiseaux, 2012. Photo : Julien Ottavi/Apo33 (Copyleft)

La formation des personnes impliquées dans ces disciplines est nécessairement hétérogène : elle est souvent située à la croisée de l’éducation artistique et musicale, ou dans un champ complètement différent. De quel domaine votre univers s’inspire-t-il ?
Depuis de nombreuses années, je développe une pratique de recherche artistique basée sur les nouvelles formes d’écriture musicale utilisant l’ordinateur, les outils audio et les réseaux. À partir de l’interprétation musicale de partitions graphiques telles que Treatise de Cornelius Cardew, December d’Earle Brown ou Cartridge Music de John Cage, j’ai axé mon travail sur l’idée d’une composition programmatique, de recherches dans le domaine du code en tant que partition, mélange de partitions, instrument et direction. Par conséquent, lorsque j’écris un morceau de code ou un « patch » (j’utilise PureData comme principal outil de code) en mettant l’accent sur des idées précises telles que « l’étude de fréquences » ou « la musique de bruit blanc », le programme fait glisser l’interprétation vers une zone avancée dont le musicien suit les chemins indéterminés : la partition graphique, à travers laquelle son interprétation est étroitement liée à l’ouverture de la composition.

L’ordinateur est devenu pour moi un domaine musical où musiciens, interprètes, compositeurs, programmeurs et autres praticiens fusionnent avec de nouveaux outils où s’opèrent des potentialités musicales infinies. Plus qu’un instrument, l’ordinateur offre une toute nouvelle compréhension de la composition musicale. Je peux simultanément construire mon instrument et réaliser une composition, au moment même où j’interprète et joue la musique en public tout en enregistrant et diffusant ce qui en résulte à travers le monde. Je peux contrôler l’ensemble de la chaîne de la production artistique, de son écriture et de sa conception à sa production et sa distribution.

Les ordinateurs portables et autres technologies mobiles, tels que les enregistreurs numériques, apportent un autre niveau à ces pratiques musicales. Nous ne sommes plus limités par notre positionnement spatial : l’espace du studio. La caverne/refuge du musicien/compositeur peut devenir tout aussi nomade que son utilisateur. Nous pouvons presque écrire et composer/jouer/diffuser de la musique aussi souvent que nous le voulons. Ces réalités ont changé ma pratique musicale, offrant une plus grande liberté de mouvement par rapport aux restrictions spatio-temporelles ou aux limitations géographiques dans le cadre de ma production musicale.

En même temps qu’une plus grande mobilité était offerte par l’ordinateur, transformant radicalement ma relation à l’atelier, le World Wide Web est arrivé et avec lui une autre dimension de ma pratique musicale. Je peux à présent jouer à distance avec d’autres musiciens et compositeurs dans des salles de concert, sans avoir à m’y trouver physiquement. Cela m’a conduit à produire et participer à des festivals de musique en ligne ou des concerts à distance, ainsi qu’à collaborer avec différents musiciens dans un contexte où le public, comme les musiciens, ne sont plus dans un espace donné, mais sont dispersés à travers le monde, à l’échelle globale et font l’expérience simultanée de ces productions. Nous pouvons transférer des sons de très haute qualité sur Internet à l’aide des technologies du stream.

En fin de compte, cela signifie que pour explorer ces nouvelles pratiques et collaborations musicales, je peux maintenant travailler avec les musiciens avec qui je souhaitais jouer sans avoir à planifier de voyage, de vol, de visa, etc. Ceci a également contribué à renforcer la communauté et a ouvert les frontières pour les musiciens de pays comme l’Amérique du Sud, l’Afrique ou l’Asie, dont le travail n’était ni diffusé ni connu en Occident. J’ai également commencé à mettre en place mes propres serveurs pour expérimenter avec des studios de musique en ligne, où j’ai enregistré un album entier en collaboration avec un autre musicien à New York, sans jamais être dans le même pays au cours de la production de ce travail. En utilisant la fonction traditionnelle du studio (postproduction), l’enregistrement audio, le mixage multi-canal, etc. avec cette plateforme en ligne, on a travaillé pendant un mois, sur quelques heures d’enregistrements récents et terminés de nouvelles compositions destinées à un CD de 45 minutes.

Mon travail est hanté par un rêve : celui de pouvoir écouter la musique que j’ai dans la tête, paradoxalement sans la fabriquer. Cela vient de l’idée que je suis avant tout un auditeur dont découle le musicien/compositeur. Quand je joue/crée de la musique, j’aime pouvoir l’écouter en même temps que l’auditoire qui la reçoit, plutôt que de me focaliser sur le processus de composition. L’enregistrement ne suffisait pas, car son évolution organique est figée. Je voulais écouter de la musique avec des éléments incontrôlables/imprévisibles, qui intègrent des sources sonores externes (externes à la synthèse, l’algorithme ou la logique informatique). J’ai donc décidé de créer un compositeur automatisé, prenant le relais à partir du point où se situe la Musique, comme le proposait John Cage, c’est-à-dire : une série d’événements sur une ligne chronologique, la Musique est l’écriture du temps, la Musique est temps…

Ce système d’automation doit pouvoir mélanger des sons grâce à un système de samplers, de contrôles de volume et d’effets gérés par différentes horloges effectuant des traitements selon des valeurs aléatoires, y compris des réactions échappant aux contrôles de données comme les entrées fondamentales, les fréquences et les enveloppes. Cette musique peut être créée de n’importe où, en captant du bruit dans la rue, dans un champ ou dans un immeuble, puis en le mixant, le transformant, l’envoyant sur Internet et le diffusant en stream en temps réel à n’importe quel auditeur du cyberespace.

À ce jour, j’ai pu écouter ma « propre » musique chez moi, sans la fabriquer et je suis en mesure d’écouter les transformations subtiles des mouvements sonores et inattendus provenant des changements issus de la source sonore liée aux activités qui se produisent dans les rues et bâtiments et champs où le son est capté : […] une communauté crée des utilisations possibles de la technologie. L’ »utilisateur » de la technologie, n’est donc pas un individu, mais un membre de la communauté ayant une pratique qui utilise la technologie en question. L’utilisateur unique est impliqué dans les pratiques de la communauté et donne du sens à la technologie dans le contexte de ces pratiques. Quand l’innovation transforme ces pratiques, de nouvelles manières d’agir créent de nouvelles interprétations du monde. Si l’innovation est technologique, la technologie s’intègre de manière nouvelle dans la pratique sociale et acquiert un nouveau sens (3).

 

Interview par Pasquale Napolitano
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

 

(1) Manuel Castells, Internet Galaxy (Oxford, Oxford University Press, 2001).
(2) Gilles Deleuze et Félix Guattari, L’Anti-Œdipe (Minuit, 1972).
(3) Ilka Tuomi, Networks of Innovation, change and meaning in the age of the Internet (Oxford, Oxford University Press, 2002)

> http://apo33.org/

l’architecte et le virage collaboratif

Daniel Dendra est un architecte et chercheur basé à Berlin. Il étudie les effets perturbateurs des cultures, pratiques et méthodologies de l’open source dans le design contemporain, avec un intérêt particulier pour l’organisation de la pratique architecturale et les nouvelles stratégies de planification des futures mégapoles. Il représente ainsi une réaction dynamique au défi contemporain du design. En 2007, Dendra a fondé anOtherArchitect (aA), un studio de design primé qui se concentre sur des solutions de design durable dans l’environnement bâti. Avant aA, il a travaillé dans divers bureaux d’architectes à Londres, Moscou, Düsseldorf et Rotterdam, comme l’AMO de Rem Koolhaas, Zaha Hadid Architects. De plus, ces dernières années, Dendra a cofondé plusieurs initiatives cruciales dans le domaine du design collaboratif, telles que le réseau de design Open Source OpenSimSim, le prix Cloudscap.es qui récompense des propositions de design durable, la plateforme de design post-tsunami OpenJapan et Future City Lab, l’initiative open-source pour un avenir durable d’ici à 2050.

OpenPod (modèle) @ 12ème Biennale d'Architecture de Venise

OpenPod (modèle) @ 12ème Biennale d’Architecture de Venise. Photo: © anOtherArchitect.

Il est communément admis que la réalisation de type ascendant est une caractéristique majeure de l’architecture. Dans ce domaine cependant, l’Open Source a remis en cause ce principe fondateur en générant des processus de design plus horizontaux : il semblerait que cette nouvelle approche soit mieux adaptée aux contextes informels urbains. À la lumière de votre expérience, pensez-vous qu’une approche open source soit applicable au processus de construction occidental sur-réglementé ? Et, dans l’affirmative, comment procéder ?
Je pense qu’en Occident en particulier où nous vivons depuis longtemps dans un monde sur-réglementé nous avons pu nous démarquer de ces modèles stricts sans trop de risques. Si vous prenez Berlin par exemple, c’est une ville où des processus de type ascendants non-réglementés et non-planifiés ont formé une nouvelle culture qui a, somme toute, transformé le paysage urbain et créé une identité neuve. La municipalité a conscience des possibilités d’une plus grande souplesse dans l’application de la réglementation en vigueur et a soutenu un processus plus dynamique, tourné vers la croissance urbaine. Peu importe si l’on se place du point de vue de l’Occident, de l’Est, du Sud ou du Nord, à travers le monde, les gens sont généralement fatigués de l’absence de transparence des processus. Ainsi, un processus plus ascendant, ou « horizontal » comme vous le qualifiez, est amené à s’imposer comme l’évolution à grande échelle du futur.

D’OpenSimSim à FutureCityLab, vous avez généré, avec votre réseau, plusieurs projets axés sur la connaissance ouverte. Vos wikies et plates-formes de partage tendent à définir la norme de pointe, en termes de relations entre la source, l’architecture ouverte et la planification. Ces projets font intervenir des consultants renommés dans tous les domaines de l’architecture et de l’ingénierie. Pourriez-vous définir le cadre général dans lequel votre réseau s’inscrit et la vision opérationnelle qui le sous-tend ?
Nous expérimentons avec des plateformes et des systèmes différents. Pour Future City Lab, mais aussi OpenJapan, nous avons utilisé un wiki auto-développé sur Drupal. Malheureusement, nous avons subi d’importants problèmes de spam et actuellement nous essayons d’intégrer les médias wiki à nos propres plates-formes. La même chose vaut pour n’importe quel autre système. Puisque tous nos projets sont à but non-lucratif, nous dépendons actuellement de l’aide d’autres communautés. Jusqu’à présent, nous avons bénéficié du soutien de la communauté allemande de Drupal, mais nous envisageons également la participation d’autres développeurs.

Grâce à votre travail, le scénario émergeant implique des designers engagés dans la création de savoirs et la mise en place de réseaux plutôt que dans le design architectural lui-même. Dans un tel contexte, où les idées et les projets peuvent être transformés, améliorés et continuellement remaniés, quelle valeur attribuez-vous à la paternité du designer ? Si l’on cite Mario Carpo, est-ce que la « propriété du design architectural » traditionnelle est vouée au même destin que l’industrie musicale, les quotidiens imprimés, le fax ou tout ce que l’on pourrait citer comme étant devenu obsolète à l’ère du numérique ?
La technologie numérique (mais aussi ce que l’on appelle le moment-(inter)NET) a transformé un grand nombre de modèles commerciaux et d’industries fermement établis. La même chose se produira tôt ou tard, à la fois pour l’architecture et les villes, ce n’est qu’une question de temps. L’émergence de fab-labs et de bureaux de prototypage rapide permettra d’accélérer plus encore ce processus. Dans le même temps, nous ne devrions pas nous inquiéter de perdre nos clients ou notre travail, mais devrions être plus progressistes que l’industrie de la musique et considérer les récents développements comme une opportunité. Le système en place, basé sur des industries de la concurrence et de la corruption n’encourage pas à repousser les limites de notre profession.
Au final, vous gagnez autant si vous vendez votre design 20.000 euros à un client ou 5 euros à 4.000 clients. Avec plus d’un milliard d’utilisateurs d’Internet aujourd’hui, et plus de 3 milliards au cours des deux prochaines années, ces modèles d’entreprise sont réalistes. Il ne faut pas oublier qu’en tant qu’architectes et urbanistes nous avons une tâche colossale : nous devons créer des villes et des bâtiments avec zéro émission de CO2 d’ici à 2050. Il ne reste pas beaucoup de temps si l’on considère qu’à l’heure actuelle il n’existe aucune solution et que le délai de mise en œuvre du design urbain est de 20 ans en moyenne.
De plus en plus, les consommateurs exigent de nouveaux procédés. Avec Magnezit, une grande entreprise de matériaux réfractaires russe, nous développons actuellement un nouveau design architectural qui fait pleinement usage du co-working (co-travail). Il s’agit d’une occasion unique pour mettre en application à grande échelle des idées développées dans nos projets de recherche.

Hedronics Chair @ Biennale d'Architecture de Moscou, 2011

Hedronics Chair @ Biennale d’Architecture de Moscou, 2011. Photo: © anOtherArchitect.

Les phénomènes de collaboration actuels présentent des méthodes d’exploitation et des approches contrastées. D’une part, des plates-formes hyper-pointues d’ingénierie du design et de construction (comme celle mise en place par Gehry Technologies pour la Fondation Louis Vuitton à Paris), permettent à un grand nombre de techniciens dispersés géographiquement de travailler en temps réel et de manière collaborative sur le Building Information Model. Dans cette chaîne numérique de pointe, la responsabilité de la prise de décision est de plus en plus perçue comme le point fort d’une application logicielle spécifique capable de gérer un niveau élevé de complexité. D’autre part, agir et élaborer un design en collaboration est plutôt généralement envisagé comme un moyen de permuter les moments de prise de décision et d’améliorer l’accessibilité globale des personnes au sein du processus de design. Que pensez-vous de ces deux aspects contrastés de la collaboration ? Vont-ils finir par converger ?
J’espère qu’ils vont converger à un moment donné. Bien sûr, les projets à gros budgets comme celui que vous mentionnez ont suffisamment de ressources pour investir dans de nouveaux moyens de collaboration et de prise de décision, puisque, sur le long terme, cela représente une économie budgétaire pour le projet. Si l’on considère qu’il s’agit là de la Formule 1 de l’architecture, j’espère que ces technologies vont peu à peu descendre jusqu’au « marché de masse « . Mais nous devons admettre que l’architecture et les architectes ne sont pas très versés dans les nouvelles technologies. Il suffit de regarder les bâtiments qui gagnent les concours de nos jours et les outils évidents que la plupart des architectes utilisent. Fondamentalement, de tels marchés grand public n’existent pas. Je ne pense pas qu’il soit nécessaire d’attendre de nouvelles normes industrielles ou de s’appuyer sur des bureaux établis.
Notre seul espoir réside dans de nouvelles générations d’architectes désireux de collaborer et prêts à partager leurs connaissances. Le développement de nouveaux outils et de nouvelles plates-formes doit venir de l’intérieur même de cette génération (tout comme cela s’est produit pour l’Internet et l’ensemble de ses plates-formes). La nouvelle génération doit comprendre qu’elle a là une grande occasion d’échapper à la norme actuelle toute tracée de notre profession : cessez de participer à des concours, commencez à participer à des collaborations. Il y a suffisamment d’emplois à pourvoir : actuellement seulement 2% des bâtiments à travers le monde sont conçus par des architectes. Arrêtez d’être en concurrence avec les pratiques établies : découvrez de nouveaux modèles commerciaux, car un grand marché vous attend. Environ 20% du PIB de chaque pays est constitué par le secteur du bâtiment. Nous n’avons pas besoin d’un autre Foster ou d’une autre Hadid — nous avons besoin d’un Zuckerberg de l’architecture, de quelqu’un qui lance un nouveau développement et réinvestisse dans le système. Je suis sûr que nous sommes sur le point de voir une révolution-internet de nos villes sous leur forme physique, ce qui rendra la survie de certains dinosaures laborieuse.

propos recueillis par Sabine Barcucci
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

interview de Philippe Aigrain

L’Internet contemporain se caractérise par le développement constant de nouvelles plates-formes, de moyens de communication, de groupes de défense et de regroupements informels des pratiques. Vous militez pour la liberté numérique depuis les débuts du Web. Alors, tout d’abord je voudrais examiner avec vous ce qui se fait de mieux en termes de cyber-droits. Quelles sont les principales tendances que vous identifiez ?

Philippe Aigrain, network portrait N°1, 2012. Bertram Niessen / realised with Gephi > http://gephi.org. Photo: D.R. / Bertram Niessen.

Permettez-moi de faire un petit détour. L’explosion de la pratique, des outils, de l’expression publique et œuvres de création est tellement gigantesque, que l’on doit faire preuve d’humilité lorsque l’on tente de la définir. Même dans les domaines que j’étudie en détail, je trouve chaque jour de nouvelles formes d’activité créative, de nouvelles communautés de connaissances et de partage culturel, de nouvelles approches techniques ou scientifiques, de nouveaux individus qui abordent les problèmes de façon très personnelle, très singulière. Ils existent depuis un certain temps, mais je ne les connaissais pas. Pour chacun d’entre nous, la partie inconnue d’Internet est beaucoup plus vaste que l’infime partie que nous connaissons.

L’activisme numérique et les cyber-droits ne peuvent être compris qu’en gardant ce contexte à l’esprit. Si l’on observe les grands conflits liés aux droits d’Internet, on peut dire qu’ils opposent ceux qui sont prêts à vivre dans un monde de diversité et de multiplicité et qui essaient d’en faire un endroit plaisant à ceux qui veulent (re)simplifier le monde pour qu’il ressemble au règne de la télévision et de l’industrie culturelle dominante, en limitant le nombre de sources d’expression et d’artistes professionnels, tout en créant une classe professionnelle de politiciens et de chefs d’entreprise. Le problème est que le revers de cette médaille — le monde de la diffusion et du gouvernement influencé par l’entreprise oligarchique — est très actif.

Nous pouvons nous sentir citoyens de l’ère d’Internet, dotés de plusieurs identités et affiliations, un novice enthousiaste dans certains domaines, un contributeur actif dans d’autres et peut-être, de temps en temps, le producteur de quelque chose qui plait au plus grand nombre. Cependant, certains pouvoirs en place trouvent un tel monde très menaçant à leur encontre, parfois à tort, dans la mesure où les médias centralisés ont leur place dans un monde basé sur la distribution. Le pouvoir politique a toute sa place dans un monde de citoyens actifs, mais c’est le fait de ne pas savoir comment la trouver qui les rend très agressifs.

Pour répondre enfin à votre question, l’activisme numérique est comme le reste d’Internet, il comporte plusieurs nuances, qui vont de petits groupes produisant de l’information ou des moyens de coordinations liés à un grand nombre de personnes (comme La Quadrature du Net) à des groupes qui s’organisent de façon beaucoup plus horizontale comme la galaxie (ou la constellation) Anonymous. Mais tous ensemble, nous avons encore un défi à relever. Nous savons comment rassembler des gens pour contrer des lois répressives ou l’appropriation exclusive de connaissances ou de cultures communes. Nous savons comment générer des alternatives concrètes allant du logiciel libre au partage volontaire d’œuvres culturelles, de réseaux P2P aux communautés de partage de connaissances, voire aux réseaux et matériels de télécommunication alternative. Pourtant, lorsqu’il s’agit de la nécessité de créer de nouvelles institutions sociales, une nouvelle politique à l’échelle de la société ou une meilleure organisation économique, nous sommes plus divisés.

La Quadrature du Net, network portrait n°1, 2012. Réalisé par Bertram Niessen avec Gephi. > http://gephi.org. Photo: D.R. / Bertram Niessen.

Les travailleurs de l’économie créative sont coincés dans un paradoxe de droit d’auteur, surtout les jeunes, car pour être « intelligents » et « créatifs », ils ont besoin de consommer d’énormes quantités de biens immatériels — de la musique, des livres numériques, des films et autres œuvres d’art — et de se former sur des logiciels toujours nouveaux; mais le système économique dans lequel ils sont ancrés ne leur donne pas les moyens financiers de tout acheter, ce qui, d’une certaine manière, les oblige à télécharger de manière illégale. Quelles sont les réformes de la propriété intellectuelle nécessaires pour résoudre cette situation ?

Il nous faut un changement de paradigme, au moins pour le partage sur Internet. Nous devons passer du « vous avez accès à ce que vous pouvez acheter » à « vous partagez la culture et y contribuez ». Cela peut se traduire par une réforme du droit d’auteur de la manière suivante : nous devons mettre les pratiques individuelles non-marchandes (à but non-lucratif) à leur place légitime, c’est-à-dire là où elles se trouvaient à l’époque des livres et des disques, hors de portée du droit d’auteur. Lorsqu’une personne a acquis un exemplaire d’une œuvre numérique, le fait de partager cette œuvre avec d’autres personnes sans viser de profit et sans centralisation des contenus ne devrait pas faire l’objet de droits restrictifs (exclusifs). De fait, cela soulève la question de la manière dont nous pourrons pérenniser l’activité créatrice colossale de la sphère numérique, dans ce contexte où le partage non commercial serait reconnu comme un droit. Je crois qu’en complément de ce droit de partage, on se doit de soutenir l’existence d’activités créatives; non pas parce que le partage pourrait leur nuire, mais parce que les œuvres à partager constituent une ressource commune pour tous. Nous y reviendrons dans une autre cette question.

Vous êtes un co-fondateur de La Quadrature Du Net. Votre lutte contre la censure et pour la neutralité du réseau est l’un des exemples plus édifiants de l’activisme numérique européen. Pouvez-vous décrire vos principales actions ? Que préparez-vous ?
La Quadrature du Net est aussi active au niveau français qu’au niveau international (principalement européen). Nous faisons également partie d’un réseau informel qui rassemble des organisations similaires à l’étranger (EDRi, OpenRights, Bits of Freedom, Scambio Etico, Chaos Computer Club, Knowledge Ecology International, Telecomix, pour n’en nommer que quelques-unes). Les premières années (2008-2009), nous étions principalement axés sur la lutte contre HADOPI en France et sur la tentative d’empêcher le détournement de la réglementation des télécommunications par les intérêts du droit d’auteur au niveau européen. Depuis 2010, nous agissons surtout pour défendre et promouvoir la neutralité du réseau et nous nous opposons à l’imbroglio complexe de l’application légale de la répression : l’ACTA, évidemment, mais également la révision de la Directive d’application des droits de propriété intellectuelle et la Directive sur les services d’information ainsi que tous les méandres du « droit mou » de la décision législative et juridique démocratique (filtrage administratif ou saisi de nom de domaine, pression sur les intermédiaires, etc.). En parallèle, nous avons toujours développé des propositions constructives pour la reconnaissance du partage et de nouveaux mécanismes de financement culturels, pour obtenir de meilleures données indépendantes visant l’élaboration de politiques, pour des politiques garantissant la neutralité du réseau, etc.

Dans votre dernier ouvrage, Sharing. Culture and the Economy in the Internet Age (Amsterdam University Press, 2012, www.sharing-thebook.com), vous résumez le débat sur l’opposition entre les biens communs numériques et le piratage. Vous examinez également de nouveaux systèmes de financements possibles qui relient l’économie monétaire aux biens communs non-marchands. Quels principaux systèmes financiers pérennes pourraient convenir aux initiatives indépendantes dans l’art, la musique et le design ?
Dans une situation nouvelle où le partage sera reconnu, nous pourrons commencer à relever le vrai défi de la créativité numérique: On trouve beaucoup plus de gens créatifs à chaque niveau de compétence et de qualité. L’économie commerciale traditionnelle de la performance publique (concerts, représentations théâtrales), des services (enseignement, médiation) ou des ventes de contenus est loin de disparaitre. Il en va de même pour les subventions publiques ou le fait que certaines activités puissent être simplement exercées grâce à l’acquisition de compétences de base (issues de l’éducation) et au temps libre.

Mais si nous voulons que de jeunes travailleurs créatifs (ainsi que chacun d’entre nous) progressent dans l’activité qu’ils ont choisie et soient en mesure d’y consacrer plus de temps, nous avons besoin de nouveaux modèles de financement. Ceux-ci peuvent principalement reposer sur un financement volontaire et participatif comme Kickstarter. Cependant lorsqu’on regarde l’ampleur des besoins, une mise en commun de ressources à l’échelle de la société est tout aussi indispensable. La grande différence, c’est qu’il peut s’agir d’un forfait raisonnable, d’environ 5€ par mois et par catégorie d’abonné à Internet en haut débit (voire d’une solution progressive si cela s’avère nécessaire), et que cette mesure doit être séparée des droits de partage (aucun contrôle nécessaire). De nombreuses questions se posent quant à la mise en œuvre et la gestion de cette économie, j’en parle dans mon livre, mais ces problématiques sont gérables. L’un des principes de base est que les contributeurs (les internautes individuels) devraient être habilités à décider de l’utilisation des sommes recueillies pour financer de nouveaux projets ou de nouvelles œuvres et rémunérer ceux qui ont contribué aux œuvres partagées. Dans le premier cas, le critère reposerait sur leurs préférences (allocation aux organisations et projets concurrents), dans le second (la rémunération) sur le fait que des utilisateurs volontaires fournissent des données anonymes quant à leurs pratiques de partage.

interview par Bertram Niessen
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

Philippe Aigrain est un chercheur français, militant du Free Software Movement. Son travail pendant les années 1990 a contribué à l’élaboration des lignes directrices des politiques du logiciel libre dans l’Union européenne. Il est administrateur du Software Freedom Law Center, une organisation qui offre une représentation juridique pro bono, à but non lucratif, aux développeurs de logiciels libres et en open source – et garant du NEXA Center for Internet and Society. Aigrain est également co-fondateur de La Quadrature du Net, organisation française pour la défense des droits d’Internet qui joue un rôle majeur dans la lutte nationale et internationale contre les lois de droit d’auteur restrictives et les traités tels qu’HADOPI et ACTA.

interview de Marc Dusseiller

Séance de travail / Lab. Photo: © Hackteria. > www.hackteria.org

Pourriez-vous me parler de l’histoire d’Hackteria et de la manière dont elle a évolué au fil des ans ?
Nous nous sommes rencontrés tous les trois à Madrid à l’occasion d’un grand workshop, organisé par le Medialab Prado et qui s’appelait « Interactivos?09: Garage Science », sur la manière dont l’open source et l’approche scientifique citoyenne peuvent changer la société. Au cours de ce workshop, nous avons conclu que nous avions besoin d’une organisation et d’activités aptes à combler l’écart entre les pratiques populaires du bio-art et l’approche scientifique émergente du DIYbio/citoyen. Yashas a par la suite trouvé ce drôle de nom : Hackteria. Nous avons organisé le premier workshop Hackteria à Berlin sur la façon d’utiliser la microscopie DIY (à faire soi-même) pour des interfaces sonores. En 2010, HackteriaLab a lancé une série de rencontres entre experts, pour évaluer ce qui a été accompli et initier de nouvelles collaborations. En ce moment, à Lucerne, Urs Gaudenz travaille en étroite collaboration avec SGMK sur de nouveaux workshops relatifs aux infrastructures de laboratoire. Ensuite, il y aura Brian Degger qui a co-fondé un hackerspace à Newcastle comprenant de nombreuses expériences bio-ludiques, puis Rudiger Trojok, un geek DIYbio allemand qui viendra en avance à Copenhague pour préparer des workshops dans le hackerspace local, BiologiGaragen. Enfin, il y aura Denisa Kera, qui est en train d’initier une sorte de collaboration entre Brmlab, un hackerspace basé à Prague, et le hackerspace de Singapour.

Pourquoi Hackteria attache tellement d’importance au monde extérieur aux laboratoires ?
Au lieu d’avoir un seul laboratoire scientifique citoyen, conçu comme un hackerspace typique, nous avons développé une stratégie de laboratoires mobiles qui peuvent être installés et transportés partout dans le monde: dans des ateliers d’artistes, des centres d’art, ou des lieux inattendus comme la jungle ou même des rues d’Indonésie où nous avons d’ores et déjà réalisé et développé quelques expériences scientifiques. Les laboratoires mobiles nous aident à comprendre la manière dont ces technologies du futur vont interagir et influencer notre pratique et notre vie quotidienne dans des contextes très variés. La plupart des travaux d’Hackteria sont axés sur les processus et sont en mode ouvert. Nous aimons improviser dans de nouveaux lieux et avec de nouvelles personnes, ce qui a débouché souvent sur des projets créatifs et inattendus. Faire de la « science » et expérimenter avec des technologies à la manière DIY, en pleine rue, dans des centres d’art ou d’autres lieux nous aide à appréhender les défis, les limites et la façon de créer des outils et des processus qui permettent à plus de gens de profiter de la recherche et de bidouiller grâce à un savoir « expert ».

Pourriez-vous décrire quelques-uns des projets récents d’Hackteria qui incarnent ce type de vision et de pratique ?
Plus d’une douzaine de personnes contribuent à notre wiki en décrivant leurs projets en cours de production. En ce moment, il y a plus de 45 projets, allant d’instructions simples sur la façon de construire une infrastructure de laboratoire jusqu’à des descriptions plus sophistiquées de protocoles de laboratoire sur les méthodes de travail appliquées aux différents systèmes vivants. Vous pouvez y apprendre quelques techniques DIY de base pour cultiver des bactéries et des algues ou bien démarrer votre projet personnel de microscopie avec un simple jeu d’instructions pour transformer une webcam ou un appareil photo Eye Playstation3 bon marché en microscope bricolé. Le projet de microscopie est non-seulement très populaire, mais aussi très utile pour les amateurs de science, les artistes, mais aussi les habitants de pays en voie de développement qui ont un accès limité au matériel de laboratoire coûteux. Le projet de microscopie est également un bon exemple de la façon dont nous travaillons, nous aimons pirater l’électronique et les outils grand public pour les utiliser différemment. Nous transformons ces symboles de notre asservissement à l’industrie des médias en matériel de laboratoire émancipateur, permettant à chacun de découvrir et d’observer la nature et en particulier le monde des micro-organismes.

Ars Daphnia Circus. Photo: © Hackteria. > www.hackteria.org

Dans quelle mesure avez-vous constaté le développement d’autres thèmes et pratiques au cours de ces années ?
Nous avons entamé d’autres projets en bio-électronique mais nous comptons également poursuivre notre travail sur la microscopie DIY et la biologie synthétique. Nous aimerions faire des expériences avec des biocarburants et à cet effet nous construisons, grâce à Arduino, un bioréacteur qui servira à cultiver des algues. Beaucoup de nos membres restent très engagés dans la fermentation de vins et divers projets relevant du jardinage. Le projet de microscopie évoluera probablement vers des tentatives d’impression 3D de champignons ou de bactéries à l’aide d’une bio-imprimante. Les outils de laboratoire, tels que les incubateurs, les pipettes ou les centrifugeuses sont encore au cœur de nos activités, parce qu’il me semble essentiel de pouvoir mettre en place un laboratoire où que l’on se trouve. Au cours de l’année dernière, j’ai construit des kits simples pour « lab-in-a-box », une valise portable de biohacker. En Janvier dernier, en Indonésie nous avons même transformé une camionnette ambulante de vente de nourriture en un biolab semi-fonctionnel, avec lequel nous avons réalisé des expériences scientifiques simples qui utilisaient des microscopes, la stérilisation, mais aussi des expériences de gastronomie moléculaire, comme la sphérification.

Pourriez-vous expliquer ce qu’est l’art biologique en Open Source et en quoi il se rapporte à la biologie DIY ?
Qu’il s’agisse d’un wiki ou d’un workshop, cela n’a pas vraiment d’importance, ce qui compte c’est de permettre aux personnes de collaborer et de partager des connaissances et des instructions. L’Art Biologique en Open Source permet aux gens d’effectuer des protocoles scientifiques complexes sans l’appui d’une institution officielle. Nous croyons qu’il est important de rendre davantage de personnes confiantes lorsqu’elles sont amenées à travailler sur des systèmes vivants pour faire émerger de nouvelles idées créatives. Lorsque cela s’applique à la science et à l’art, un nouveau type de participation du public et de compréhension de ces deux domaines peuvent ainsi voir le jour. Actuellement, les artistes partagent peu d’informations précises sur le processus de fabrication de leurs pièces. Ils pensent volontiers que la documentation de leur mode opératoire n’est pas importante et que le rôle du public est d’être simple spectateur, consommateur passif et admirateur de leurs œuvres. À cet égard, les soi-disant bioartistes rappellent ces scientifiques qui construisent leurs tours d’ivoire. Nous trouvons que c’est archaïque et déplacé, car cela donne la fausse impression que la science et l’art sont pratiqués par quelques experts et membres d’une élite qui décident de notre avenir. Notre approche est radicale, nous souhaitons que tout le monde soit activement impliqué dans l’avenir de la biologie et de la science et que les amateurs, les bidouilleurs et les hackers aient un accès équitable aux outils de « production » d’art et de science.

Pourquoi est-il important de combler le fossé entre artistes et scientifiques et comment ceci est-il lié aux débats sur la relation entre experts et amateurs ?
Je m’intéresse beaucoup à l’amélioration de la communication scientifique et à la participation du public aux sciences de la vie. Je voudrais voir apparaître une démocratisation de la science qui fasse directement appel aux citoyens au lieu d’abandonner le débat à quelques ONGs, à des médias ou des professionnels de la communication scientifique qui, en tant que porte-paroles, édulcorent leur opinion. Mon espoir est qu’en permettant à davantage de gens de faire de la science dans leurs garages, leurs cuisines et leurs salles de bains, et en permettant à davantage d’artistes, de designers et de passionnés de travailler tout simplement sur divers projets scientifiques, nous pourrons aboutir à ce que le public maîtrise la culture scientifique et rende démocratiques les décisions sur les cellules souches embryonnaires, les OGM, les nanotechnologies, etc.

Maja Spela Incubator. Photo: © Hackteria. > www.hackteria.org

Quel est votre rapport à la scène du DIYbio ? Sur quel type de projets avez-vous collaboré et en quoi êtes-vous différents ?
Hackteria a rejoint le mouvement mondial du DIYbio dès le départ et nos activités ont toujours été menées de front. Il y a deux ans, alors que DIYbio.org débutait à peine, j’ai rencontré Mac Cowell, le fondateur du mouvement, et je l’ai invité à l’une de nos universités d’été. Nous collaborons et nous nous entraidons assez fréquemment. La différence réside peut-être en ce que DIYbio.org ressemble davantage à une liste de diffusion dotée de nombreuses fonctions alors que nous sommes avant tout un wiki qui dispense des conseils pratiques pour fabriquer des choses, mais nous organisons aussi de nombreux workshops et événements, ce qui intéresse moins le noyau dur du mouvement DIYbio. Par ailleurs, ils sont beaucoup plus tournés vers la science et l’aspect commercial alors que nous travaillons plutôt avec des artistes, des designers et même des philosophes. Les ressources éducatives et le wiki d’Hackteria sont essentiels pour aider les artistes et les designers à gagner en confiance pour pouvoir ensuite rejoindre une liste de diffusion liée aux sciences, poser des questions plus pertinentes et communiquer avec des scientifiques. La relation entre Hackteria et DIYbio crée cette belle synergie et la possibilité de soutenir des collaborations uniques.

Pourriez-vous expliquer votre vision de la relation idéale entre scientifiques professionnels et scientifiques citoyens ?
Lorsque j’ai rendu visite pour la première fois à Yashas, en Inde, j’ai réalisé à quel point le travail DIYbio que nous faisions dans les pays en développement est important. Le matériel scientifique y est trop cher et les publications scientifiques quasiment inaccessibles. Le wiki Hackteria permet aux étudiants de ces pays d’acquérir des compétences en matière de recherche grâce aux quelques outils DIY que nous avons développés (et nous développons constamment de nouveaux outils). Beaucoup de nos membres sont en fait des scientifiques professionnels qui ont pris le défi du DIYbio au sérieux. Ils prennent du plaisir à développer des instructions et des outils destinés à ceux qui, pour diverses raisons, n’ont pas de moyens suffisants ou d’accès à un espace laboratoire professionnel. Les outils DIYbio n’aboutiront sans doute jamais à une recherche de pointe, mais ils jouent un rôle essentiel dans la formation de scientifiques et finalement de tous ceux qui essaient de comprendre ce qui se passe dans les laboratoires scientifiques professionnels. Les protocoles et les outils DIYbio sont des moyens d’émancipation pour la science, un genre de liberté individuelle et même le droit de développer sa propre relation aux connaissances scientifiques et d’essayer de nouvelles choses pour pouvoir se forger une opinion éclairée sur ces questions. Le fait de pirater et de fabriquer des outils bon marché pour commencer son propre laboratoire et son infrastructure a pour but de démocratiser la science en ce sens. Une opportunité est ainsi créée pour les pays en voie de développement d’améliorer leur enseignement des sciences et de la recherche adapté à leur besoin, et non pas à quelques chroniques pour initiés dans les pages d’une revue occidentale de toute façon inaccessible.

Quelles sont les personnes qui participent à vos ateliers ?
Cela dépend du lieu et de la situation géographique. Si c’est un festival d’arts des médias, la majorité des participants sont des artistes « tournés vers la technologie et les sciences” et quelques ingénieurs qui travaillent sur un projet artistique, mais surtout ceux qui n’ont pas beaucoup d’expérience en matière de biologie, de sorte qu’ils cherchent à apprendre et découvrir des choses nouvelles dans un environnement convivial. Nous travaillons aussi parfois avec des enfants. En Inde ou en Indonésie, nous avons également réussi à attirer les villageois et les communautés locales et nous travaillons régulièrement avec des organisations locales de ces pays dont les objectifs sont similaires. En Indonésie, il existe des organisations telles que HONF (House of Natural Fiber) et Lifepatch.org qui travaillent souvent avec des agriculteurs locaux et utilisent certaines méthodes d’Hackteria, comme notre microscope bricolé à partir d’une webcam ou des protocoles destinés à la fabrication de vin et d’engrais. Yashas travaille également en collaboration avec des villageois indiens en enseignant la manipulation génétique et la biologie synthétique à l’aide de bandes dessinées qui s’adressent au grand public.

Plant Smela. Photo: © Hackteria. > www.hackteria.org

Parlez-nous de vos projets personnels avec Hackteria…
Ces deux dernières années, j’ai beaucoup travaillé en Slovénie sur les nanotechnologies et la biologie, avec Kapelica Gallery, une institution de premier plan, à la croisée de l’art et de la science. Nous avons commencé avec le projet NanoSmano en 2010, un laboratoire participatif invitant le public à des expériences avec les nanotechnologies et leur potentiel esthétique. Pendant deux semaines, un petit groupe d’experts scientifiques et d’artistes ont travaillé sur le développement de prototypes de nanotechnologie et le laboratoire a été ouvert au public. Avec Kapelica nous prévoyons également une série de workshops avec des enfants et nous mettons en place un laboratoire mobile. Je suis également actif en Indonésie où, au cours des trois dernières années, j’ai organisé des workshops sur la microscopie DIY, la fermentation, la sensibilisation des écoles locales à la science, mais aussi des événements avec la scène artistique florissante, mêlant science et VJing. En même temps, un nouveau projet appelé Lifepatch.org a été lancé. C’est une initiative citoyenne d’art, de science et de technologie dotée d’un wiki très semblable au nôtre, mais rédigé en indonésien; ainsi nous coopérons sur de nombreux projets. Il est très gratifiant de voir la manière dont le réseau se propage, d’assister à sa mutation et son interaction à travers le monde.

Quel est votre point de vue sur l’avenir de la science citoyenne ?
Mon espoir est que si plus de gens fabriquent eux-mêmes des choses, en ayant une expérience directe et quotidienne des protocoles scientifiques, nous pourrons démystifier la science et ouvrir l’ensemble du processus de décision à davantage de personnes et d’opinions. Je pense que c’est la société du futur, celle dans laquelle je souhaite vivre, un endroit où des bricoleurs et des citoyens ordinaires pourront trouver de nouvelles utilisations et des fonctions inattendues à des technologies et des connaissances scientifiques, les pirater et les adapter à leurs rêves et à leurs vies sans attendre qu’une grande entreprise ou qu’un gouvernement décide de ce qui est bon ou sûr pour eux. Parce que je travaille aussi en tant qu’éducateur, j’ai l’occasion de voir comment l’attitude à l’égard des changements scientifiques se transforme par le biais de l’expérience directe. Je pense que les institutions scientifiques devraient consacrer plus d’argent à enseigner la pratique de la science et ouvrir leurs laboratoires au public, au lieu de payer des spécialistes en communication scientifique pour mener des campagnes de relations publiques qui ne font qu’amplifier les soupçons à leur encontre.

propos recueillis par Sara Tocchetti
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

Hackteria est un réseau de personnes qui pratiquent la biologie DIY axé sur l’art, le design et la coopération interdisciplinaire. Le réseau a été fondé en 2009 par Yashas Shetty, Andy Gracie et Marc Dusseiller et comprend maintenant non seulement des scientifiques, des ingénieurs et des artistes, comme on peut s’y attendre, mais aussi des philosophes, des entrepreneurs et même des gourmets et des chefs. Hackteria opère à l’échelle mondiale sur une plate-forme Internet et un wiki dédiés au partage des connaissances, permettant à quiconque d’apprendre, mais aussi de tester différentes façons de pirater des systèmes vivants. Hackteria ne repose pas sur un espace physique et son objectif est de permettre à des artistes, des scientifiques et des hackers de collaborer et d’essayer différentes techniques de biohacking et de bio-art en dehors des laboratoires officiels et des institutions d’art, quasiment n’importe où dans le monde. Site: www.hackteria.org

Dissection de l’auteur

Le questionnement du système de l’art par la critique institutionnelle, la posture politique du situationnisme, l’amalgame de l’art et de la vie par John Cage et Fluxus, le « système D » du punk : tous ces vecteurs semblent converger dans la recherche de Mattin (musicien et artiste basque). Si son travail est centré sur le bruitisme et l’improvisation, Mattin nous pousse à explorer leurs limites et leurs contradictions en interrogeant les formes établies, les pratiques, les conventions et les contextes.

Mattin live @ MEM festival, Bar Bullit, Bilbao, 18/12/2003. Photo: D.R.

Son approche auto-réfléchie et méta-contextuelle ne se contente pas de déconstruire le langage de la musique visant à explorer le cadre social, politique et économique de la production et de la réception. C’est un déplacement de l’intérêt de la forme musicale vers la sphère extramusicale qui se reflète à tous les niveaux : le concert (conçu comme un système de relations forcées et perturbées), les moyens de production et de distribution (il dirige trois labels militants de l’anti-copyright, chaque œuvre étant disponible gratuitement : la série Free Software, dédiée aux pièces réalisées à l’aide d’un logiciel libre, w.m.o/r et le netlabel Desetxea). Plus important encore, la notion même de droit d’auteur (et par conséquent de propriété intellectuelle) est ramenée à ses racines historiques et littéralement disséquée. À travers des voies impersonnelles d’expression, les performances de Mattin s’opposent à l’idée de créativité individuelle. En assumant les contradictions et en fragmentant les attentes et les rôles préconçus, Mattin tente de dévoiler la manière dont des contextes, les situations et la subjectivité sont construits en les utilisant comme matière première de l’improvisation et en cherchant à sonder le système de la musique expérimentale et de ses relations avec la société capitaliste. En fin de compte, il s’agit d’examiner notre société elle-même.

Vous déclarez sur votre site Web: je n’assume aucune responsabilité pour le pronom « Je » en tant que réceptacle d’un auteur individuel. Ceci nous conduit immédiatement à l’une des notions les plus controversées de la critique esthétique, de l’art et de la musique : l’auteur. Cela s’applique-t-il à votre pratique créative ? Comment le bruitisme et l’improvisation peuvent-ils remettre l’auteur en question ?
La notion de créativité est très problématique, car elle présuppose qu’une personne apporte de la nouveauté ou de l’originalité. Cela engendre une série d’attentes et de divisions ultérieures du travail : on associe cette créativité aux personnes ayant des rôles spécifiques (comme les musiciens ou les artistes) ce qui instaure inévitablement des hiérarchies entre les différents niveaux d’activité, où l’activité du public devient mineure (ou instrumentalisée par une forme d’appropriation par l’artiste).
Dans l’improvisation, la liberté se rapporte à cette conception de la créativité : les improvisateurs sont libres d’utiliser leurs instruments de manières supposées être uniques ou originales. Cette vision de la liberté me semble très limitée et, qui plus est, individualiste dans le sens où les limites se placent dans son propre ego et celui des autres improvisateurs, ce qui instaure une séparation analogue à de la subjectivité libérale : laissez-moi être « libre », tant que je peux exprimer ma « liberté ». Si nous examinons les règles implicites de l’improvisation, il est clair que chaque artiste permet aux autres de faire ce qu’ils veulent tant qu’ils n’interrompent pas son processus de « création ». Les improvisateurs ne sont, en réalité, pas si ouverts que ça; particulièrement si l’on essaie de provoquer un type d’interaction différent, plus intersubjectif.
Le côté informel et la soi-disant liberté dans l’improvisation peuvent entraîner beaucoup de mysticisme et d’obscurantisme, une opacité qui rappelle l’abstraction conceptuelle dans la notion d’auteur ou la forme des produits de consommation. Avec quelques personnes, nous avons essayé de détacher cette notion de créativité de l’improvisation. Nous concevons l’improvisation comme un élément générique sans mise en relief de l’individualité, dans laquelle les expressions impersonnelles ou les gestes génériques produisent une performativité radicale et non-réflexive, dans la mesure où elle ne revient pas vers vous en tant qu’individus (ou, au moins, elle révèle la structure des rôles individuels).

La déconstruction des contextes et des rapports de réception et de production semble être centrale dans votre pratique. Je me souviens avoir assisté à l’un de vos concerts à Berlin et n’y avoir perçu qu’un bruit de fond…
Ce concert était une tentative de travail sur des idées mentionnées ci-dessus, où les décisions structurelles révélaient des attentes, des rôles et des relations de pouvoir informels dans un contexte précis, tout en essayant de produire une « équalisation » radicale des sons (ne pas donner plus d’importance à l’un ou à l’autre) et sans distinction entre l’activité et la passivité (aucune neutralité dans n’importe quel élément de la situation). Je n’étais pas présent, ce qui, pour un concert improvisé peut être considéré comme sacrilège, parce que je n’étais pas là pour exprimer ma liberté, mais j’y avais participé par le biais de décisions préparées à l’avance : le public restait dans un espace totalement obscur pendant une heure, ensuite la lumière s’allumait et on diffusait l’enregistrement des personnes présentes dans la salle durant la première heure.
Pendant la diffusion de cet enregistrement, la moitié des recettes des entrées était censée être disposée au milieu de la salle (nous étions deux à l’affiche ce soir là) et les auditeurs (ou les performeurs, quelque soit la façon dont on préfère les nommer) pouvaient prendre de l’argent s’ils le désiraient. Cependant, Mario De Vega, l’un des organisateurs, estimant que les 20 euros récoltés à l’entrée n’étaient pas suffisants, n’a pas mis cet argent à disposition. Ce qui s’est avéré intéressant pour moi, c’était la façon dont les relations informelles de pouvoir ont resurgit. Je pense que si Mario n’était pas lui-même artiste, il aurait juste placé l’argent selon les instructions, mais étant artiste et organisateur doté d’un certain pouvoir sur la situation, il l’a exprimé sous la forme de décision esthétique qui a saboté la mienne.
Quelques jours plus tard, j’ai participé à un débat public intitulé pourquoi je ne suis pas venu à mon concert. Nous avons examiné les questions soulevées par ce concert, certaines étaient vraiment dures. Cela m’a vraiment permis de me rendre compte de la difficulté de remettre en question le statut de l’auteur en étant soi même auteur. La discussion s’est totalement retournée contre certaines des intentions du concert. En conséquence, je travaille maintenant dans l’anonymat tout en essayant d’utiliser Mattin comme matière à expérimentation et improvisation.

Dans un scénario culturel où l’interaction collective s’impose comme règle de production et de consommation, la tentative de l’avant-garde d’émanciper les spectateurs grâce à la participation semble être absorbée par le système. Votre travail questionne souvent la distinction entre artiste et public. Dans un texte récent, vous présentez la notion d’ »auteur gestionnaire » pour souligner la façon dont les pratiques participatives, tout en essayant de surmonter la distinction entre production active et consommation passive, peuvent finalement devenir une prothèse des courants capitalistes (1).
Cela tient de l’instrumentalisation et de l’agencement : dans quelle mesure l’artiste permet-il un renversement des paramètres conceptuels qui sous-tendent une situation ? Dans quelle mesure l’artiste permettrait-il à une situation de s’effondrer si la participation allait assez loin ?
En écrivant ce texte, je craignais qu’il soit perçu comme moralisateur, comme si il y avait qu’une façon nette et tranchée de se lier à d’autres personnes. Ce n’est pas mon intention, il y a toujours un niveau de manipulation en jeu et il s’agit alors de savoir ce que l’on en fait. Doit-on essayer d’assimiler la notion d’auteur ou de la démanteler en démontrant sa fausseté ?
De ce fait, les concerts que je donne (le « je » étant toujours à questionner) sont des situations qui présupposent que :

  1. a) le public n’est pas neutre
  2. b) le concert est une relation de pouvoir avec des intérêts et des positions inégaux dans la situation
  3. c) néanmoins, les positions ne sont pas figées et peuvent être modifiées ou radicalement questionnées, non pas comme une forme de libération, mais comme une chose autre.

Fondamentalement, il est inintéressant de donner l’impression d’un spectateur libéré ou émancipé par une forme de participation, mais lorsqu’on produit des situations dans lesquelles on est coupés de nos rôles et démuni d’outils pour y faire face, on se sent à nu et vulnérables. Cela relève davantage de l’aliénation et il faut se demander comment l’aliénation est induite, tant au sens général que dans une situation spécifique. Un simple concert ne peut nous libérer, mais nous pouvons explorer la manière dont nous sommes prisonniers des attentes et de conditions artificielles, ce qui revêt toujours un intérêt particulier. Une condition préalable pour changer les choses pourrait résider dans l’effort de compréhension de leurs propres effets et de leur construction.

Mattin live @ Guardetxea, Donosti 07/08/2010. Photo: © Mikel R. Nieto.

Qu’en est-il de votre implication dans le mouvement Anti-Copyright ?
Je ne parlerai pas de mouvement. Il s’agit davantage d’une attitude face à la propriété intellectuelle. Si, grâce à l’improvisation, on remet constamment en question les paramètres de ce dont on traite, alors il est normal de questionner la transformation d’une activité en propriété.
Dans une récente conversation avec Rasmus Fleischer, nous avons abordé les jonctions entre l’obscurité de certains concepts tels que la musique et la notion d’auteur. Elles se sont développées simultanément avec la notion d’expérience et d’esthétique et l’émergence des formes de produits de consommation (i.e. au XVIIIe siècle). Nous considérons ces concepts comme naturels, comme s’ils avaient toujours été là, mais ils sont issus de développements spécifiques à des modes de production, de discussions philosophiques, de la façon dont la notion d’individu et sa relation à la loi se sont édifiées.
Le système juridique qui renforce la propriété repose sur une subjectivité bourgeoise qui conçoit la liberté comme une séparation entre les individus et leur communauté et des individus entre eux. D’un point de vue historique, Marx considère cela comme une excroissance de la Déclaration des droits de l’homme, qui valorise ces séparations. La loi, au lieu de préserver notre liberté, devient un résultat idéologique de l’égoïsme et de l’atomisme, reproduisant ainsi une appréhension de la liberté nécessaire à l’épanouissement du capitalisme. Étant donné que le mode de production capitaliste repose sur des salariés libres de vendre leur puissance de travail, les travailleurs ne possèdent peut-être pas tous les moyens de production, mais il leur reste leur corps et la soi-disant égalité politique et juridique. Plutôt qu’être le sujet des droits, les individus deviennent alors leurs objets et sont, en outre, dégradés et isolés en tant que tels.
De même, les produits de consommation sont des objets égaux aux yeux du marché. Cela montre la manière dont les droits de l’homme et de la propriété sont entièrement liés par l’idéologie de la subjectivité bourgeoise, garantie par la sécurité de la police. La stabilité était tout aussi nécessaire afin de développer une appréhension spécifique du temps : le temps de travail abstrait et homogène qui peut être mesuré par le biais de sa productivité et doté d’une valeur. C’est dans ces conditions présentes que la notion d’auteur pourrait obtenir une certaine pertinence, mais aujourd’hui nous sommes en mesure d’identifier la fausseté du concept. Par exemple, par des moyens technologiques et numériques, comme les logiciels libres, qui ne tiennent aucun compte de l’individualité en tant que source de production et de distribution.

Puisque nous en venons à la série Free Software : pourquoi avoir décidé de fonder un label axé sur les logiciels libres ?
Le label était lié à l’émergence de l’utilisation du logiciel libre par différents acteurs de la musique expérimentale. La majorité de ceux qui utilisent les logiciels libres ont clairement conscience de remettre en question les notions de propriété intellectuelle, mais leurs positions à son égard divergent. Alors, l’une des conditions préalables pour sortir une œuvre sur ce label était de clarifier cette position (anti-copyright, copyleft, licence GNU ou toute autre forme de posture). Il s’agit de faire progresser le débat à ce sujet. D’autre part, des gens curieux, comme Taku Unami, susceptibles de posséder un ordinateur équipé d’un système d’exploitation Mac ou Windows et un autre de GNU/Linux souhaitent essayer plusieurs pratiques. Quand ces artistes sont invités à sortir quelque chose sur le label, ils doivent utiliser l’ordinateur équipé de GNU/Linux. Les moyens de production de la musique expérimentale ont des répercussions idéologiques qui, à mon avis, devraient être discutés plus amplement.

Vous avez développé certaines de ces problématiques à l’écrit, en particulier dans le livre Noise & Capitalism  (2). Souhaiteriez-vous y effectuer des ajustements 3 ans plus tard ? Quel est le potentiel critique dans la production de musique aujourd’hui ?
J’ai commencé à écrire ce livre en août 2006. Depuis, la crise est survenue, bon nombre de luttes ont eu lieu. Ce livre a été un moyen de me rendre compte qu’il n’y a rien d’intrinsèquement critique dans les sons abstraits. La critique découle de la prise de conscience de la façon dont ils sont produits et perçus. Il est devenu évident qu’à l’heure actuelle, le bruit et l’improvisation n’ont pas grand chose à offrir sur le plan politique. Cependant, certaines propositions conceptuelles, dans leurs intentions, invitent encore à des explorations plus poussées; ce qui peut être pertinent au regard des discussions politiques contemporaines.
Par exemple, l’improvisation s’apparente à la notion de « communisation »; d’un communisme par l’action tout en abolissant simultanément la propriété, les relations salariales, les relations entre les genres, les sphères privées et publiques et la théorie de la valeur du travail, sans pour autant nécessiter un programme, des ordonnances ou toute autre forme de médiation. Toutefois, à cet effet, nous aurions besoin d’examiner en profondeur les conditions matérielles et idéologiques qui semblent périphériques à l’improvisation et à la production de musique expérimentale, mais qui sont en réalité sa raison d’être.

Anti-Copyright
interview par Elena Biserna
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

(1) Mattin, Managerial Authorship: appropriating living labour (Casco Issues 12, Sept. 2011).
(2) Anthony Iles, Mattin (eds), Noise & Capitalism (Donostia-S.Sebasti, Arteleku Audiolab, 2009). www.arteleku.net/audiolab/noise_capitalism.pdf

Deux révolutions technologiques ont fondamentalement changé le monde au cours du dernier quart de siècle, l’une dans les Technologies de l’Information et des Communications (TIC) et l’autre dans la biotechnologie. La première est beaucoup plus connue, car elle fait partie intégrante de la vie quotidienne des habitants des pays développés. Son impact est immédiat et omniprésent.

Free Range Grain. Photo: © Critical Art Ensemble.

Les employés des entreprises de services, les bureaucrates, les technocrates, les hommes d’affaires et les étudiants consacrent une part croissante de leurs heures éveillées à rechercher sur un écran ou taper sur un clavier. La biotechnologie est en apparence beaucoup moins omniprésente. Elle semble éloignée de la vie quotidienne parce que son développement et sa production se déroulent derrière les portes closes du laboratoire et ne sont compris que par un groupe d’experts scientifiques. Comme nous le verrons plus loin, cette vision, bien que correcte, est en réalité limitée. Le Critical Art Ensemble va même jusqu’à dire que si la révolution des TIC est beaucoup plus spectaculaire, la révolution biotechnologique est assurément plus profonde et tout aussi omniprésente.

Le Critical Art Ensemble se rend compte que cette affirmation est très audacieuse, car d’un simple coup d’œil tout un chacun peut voir à quel point les TIC ont révolutionné le monde. Plus important encore, elles ont rendu possibles une forme définitive de capitalisme (le pan-capitalisme), une hégémonie économique d’envergure mondiale. Les marchés mondiaux imbriqués et interdépendants sont désormais une réalité dont découlent des institutions mondiales et transnationales qui ne fonctionnent sous aucune autre autorité que la leur. Avec l’utilisation de la virtualisation croissante de toutes formes dominantes de l’activité humaine — si nous parlons d’échange économique, de guerre, de divertissement, ou de sociabilité — même à un simple niveau, le pan-capitalisme réussit à produire une idéologie générale dominante à l’échelle mondiale (le néolibéralisme), dans laquelle les catégories d’entreprise et de profit sont devenues le prisme à travers lequel toute valeur est mesurée. Compte tenu de cet enveloppement spectaculaire, incontournable, idéologique et économique rendu possible par les TIC, comment ne pas admettre qu’il s’agit là de la plus importante des révolutions ?

Le Critical Art Ensemble pense que, comme pour tous les phénomènes spectaculaires, cette révolution est réductible à une question de quantité. La révolution (numérique) des TIC nous a finalement apporté le même genre de choses, mais sur une échelle beaucoup plus grande. Ainsi, bien que nous n’ayons jamais vu auparavant d’empire, de spectacle, ou de marchés mondiaux, nous avons vu des empires, spectacles, et marchés à grande échelle. D’autre part, la biotechnologie n’est pas seulement étendue dans ses nombreuses manifestations, elle est également véritablement nouvelle. Si l’on se base sur la quantité, la biotechnologie touche à tout ce qui est organique, ce qui la rend véritablement globale. Par exemple, son impact est constant dans la chaîne de l’approvisionnement alimentaire. En termes de vie quotidienne, les produits issus de la biotechnologie sont omniprésents, de nos cuisines à nos armoires à pharmacie et notre corps. Pour un petit groupe de personnes, la biotechnologie est la raison même de leur existence. Cependant l’importance réelle des biotechnologies repose sur leur qualité.

Le pan-capitalisme, comme toute autre forme de pouvoir avant lui, n’a jamais été en mesure de contrôler pleinement l’intériorité humaine. Il peut envelopper le corps et la conscience et essayer d’y faire pénétrer ses impératifs, mais il n’a jamais été capable de contrôler la pensée ou le désir de manière fiable. Certes, il a fait de grands progrès pour assoir sa position, mais aucune formule magique n’a jamais poussé les gens à désirer ce dont ils n’avaient pas besoin, ni à devenir serviles sans résistance. Même la plus simple des campagnes de publicité n’est jamais assurée de fonctionner. Elle peut parvenir à déplacer les désirs fondamentaux généralement ancrés dans les besoins humains, comme la nourriture, le sexe, le logement, l’appartenance et des états alternatifs de conscience sur des articles superflus, mais cela fonctionne uniquement sur du court terme et finit souvent par échouer complètement. Le flux continu de groupes de réflexion qui accompagne les campagnes de publicité est une preuve irréfutable de la conscience du capital vis-à-vis de cette incertitude. La biotechnologie peut aider à optimiser ce processus, non seulement par le biais des humains. Elle peut grandement aider à re-codifier tout système organique et toute créature afin qu’ils puissent davantage se conformer aux impératifs du pan-capitalisme.

Free Range Grain. Photo: © Critical Art Ensemble.

De nouvelles avancées dans la biologie moléculaire ont démarré ce ré-encodage de la vie. Pour revenir à l’homme, ces éléments intérieurs de la conscience que nous pensions impénétrables sont à présent un territoire ouvert. Les moyens de prendre les impératifs du néolibéralisme et de les transformer en prédispositions qui pourraient pousser vers l’extérieur pour établir des liens avec les indicateurs actuels qui poussent vers l’intérieur. Étant donné la propension du capital à optimiser et rationaliser tout ce qui y touche, on peut être certain que l’intériorité du corps est dans sa ligne de mire.

Depuis longtemps, le capitalisme a montré son intérêt pour une vie régie par l’ingénierie dont la plus grande férocité s’est manifestée dans le mouvement eugénique du début du XXe siècle. Le désir de déplacer les processus tâtonnants et aveugles de l’évolution et de les remplacer par des choix rationnels en phase avec les besoins du capitalisme est un rêve persistant. À présent, les connaissances et les moyens d’y parvenir sont disponibles. Déjà, de nombreuses espèces vivantes sont ré-encodées. Toutefois, la réponse à des besoins de puissance et la sélection pour la survie sont deux choses différentes. La sélection ne peut être que spéculative et comprise a posteriori, elle ne peut donc être conçue à l’avance, de sorte qu’on ne sait jamais quel genre de bénéfices ou d’inconvénients les ingénieurs apportent à des espèces données ou même à un système écologique. Même si ce problème était en quelque sorte évitable (et compte tenu des antécédents du capitalisme, ce serait surprenant), on peut être assurés que le capital vise à privatiser la vie elle-même. Une pensée alarmante, et un processus déjà bien entamé.

En dépit de ces tendances cauchemardesques, sous-produits du néolibéralisme, la biotechnologie pourrait avoir des conséquences utopiques. Si elle pouvait être retirée du contrôle des sociétés transnationales et des organisations militaires, elles pourraient être réorientées pour un travail d’intérêt commun. Pour ce faire, la biotechnologie doit être repensée et réutilisée comme autre chose qu’un outil de colonisation de la vie, et cela se produira uniquement si ceux qui se tiennent à l’extérieur de la vision directe, de la tutelle, ou du salariat des agents du capital sont prêts à s’engager dans ce défi (d’ailleurs, quelques scientifiques son disposés à aider les bio-hackers dans cette entreprise, mais ils sont rares). La tâche n’est pas facile : pour réussir, les participants devront retirer les œillères de l’entreprise et du profit. En outre, ils auront besoin de participer à cette activité d’une manière qui dépasse le plaisir de l’enquête et la satisfaction de la curiosité. Ceux qui en sont capables devront encadrer cette initiative comme une intervention délibérée contre une forme inacceptable de bio-pouvoir, ou plus positivement, comme un moyen d’inventer et de déployer de nouvelles formes de bio-politique.

Ce n’est pas de la science, mais cela y ressemble. Les formes de bio-intervention et de biohacking qui ont une valeur sociale se démarquent de la production des connaissances scientifiques, car, au contraire, elles s’efforcent de produire une politique qui s’oppose à la re-codification de la vie dans l’intérêt du pan-capitalisme. La production de la connaissance scientifique est hors de portée de ceux qui ne bénéficient pas d’indépendance financière. La science est une entreprise intensive au niveau du capital, qui coûte des millions, souvent pour produire des résultats incomplets. Le coût du matériel de pointe est prohibitif (généralement parce qu’il ne peut être optimisé en raison du faible nombre d’unités vendues) et le coût des matériaux liquides n’est pas plus abordable. Les réactifs biologiques, micro litre par micro litre, sont probablement les substances les plus chères au monde. En outre, cette entreprise exige une grande communauté ayant atteint un consensus sur ce qui constitue un processus légitimé de contre-vérification de la validité et de la fiabilité des résultats. Dans l’écrasante majorité des cas, ceux qui bricolent dans leur coin ne seront jamais en mesure de rejoindre ce club.

Compte tenu de ces limitations, que peut-on faire ? Pour commencer, si tout ce l’on souhaite c’est explorer les bases de la biologie moléculaire, cela ne peut se faire à un coût raisonnable que d’une manière limitée (en raison du coût des réactifs). L’un des domaines où le capitalisme excelle c’est l’optimisation des produits populaires pour faire baisser leur prix (malheureusement cette pratique apparemment positive est communément associée au pillage du travail des plus pauvres, des plus vulnérables, et des plus désespérés de la planète). Les outils de laboratoire de base tels que les incubateurs, les shakers, les centrifugeuses, les PCRs, les pipettes de précision, etc., sont facilement disponibles et abordables pour ceux dont le budget est limité (surtout si vous achetez du matériel d’occasion) ou bien, selon les préceptes de Graham Harwood, ceux qui n’ont pas d’argent peuvent piquer le matériel.

Free Range Grain. Photo: © Critical Art Ensemble.

En outre, de nombreux procédés ont également été optimisés et sont souvent disponibles sous forme de kits faciles à utiliser. Les laboratoires sont comme n’importe quel autre espace de travail capitaliste où l’ouvrage est entièrement stratifié. Il n’est pas optimal pour les gestionnaires (IP) de faire un travail de laboratoire. Ils doivent développer des théories, inventer des expériences, interpréter des résultats et rédiger des demandes de subventions. Ils ont besoin d’une main-d’œuvre bon marché, c’est-à-dire d’étudiants, plus communément surnommés « singes de laboratoire ». Ils ont besoin d’instructions faciles à suivre. Ce qui signifie pour les bio-hackers intéressés que, sans connaître la théorie de ce qui est produit, un résultat valide peut être atteint (alors non, pas besoin de doctorat !). Peut-être les gens veulent-ils savoir si les céréales de leur petit déjeuner sont faites à base de maïs transgénique : il existe un kit disponible à cet effet dans les magasins de fournitures scientifiques. Il suffit de suivre les instructions très détaillées. Cependant, vous devez vous assurer que votre laboratoire est correctement équipé pour le kit, et toujours vérifier ce qu’un kit donné nécessite avant de l’acheter. Les fondations sont maintenant posées : nous pouvons nous approprier le matériel, les processus et les quantités limitées de connaissances et les adapter à nos propres besoins.

Nous arrivons maintenant à la partie créative de notre processus. Que pouvons-nous faire avec des moyens modestes ? Pour répondre à cette question, le Critical Art Ensemble suggère de se tourner vers l’histoire de l’art afin d’obtenir des réponses. Et dans ce cas vers l’un des grands pirates de la culture du XXe siècle : Marcel Duchamp. Au début du XXe siècle, Duchamp a produit une série de sculptures toutes effectuées dans le but de déranger et perturber les croyances mythiques sur l’art, à savoir ce que les humains appellent l’art dans l’existence à travers un acte créatif transcendantal, au-delà de la sphère sociale. Duchamp croyait que l’art n’avait pas de qualités transcendantes ou essentielles, et le ready-made en était sa démonstration. Il a pris des produits fonctionnels manufacturés comme un porte-bouteille ou un urinoir et les a repositionnés comme étant de l’art. Estimant que le sens est déterminé par la situation, plutôt que par l’essence, il a placé les objets sur un piédestal, dans un musée ou une galerie, et les a signés. L’interrelation entre l’espace, le socle, l’objet, la signature et le spectateur signalaient à tous la légitimité du statut des objets en tant qu’art. Et en tant que tels, ils étaient considérés et traités comme de l’art. Cette reconfiguration des points signifiants pour produire de nouvelles relations aux objets communs est le modèle que les biohackers peuvent utiliser pour produire de nouvelles perceptions, des réflexions et des relations avec le monde organique (ou, comme William Gibson l’écrit : la rue trouve ses propres utilisations pour les choses…). Les Bio-interventionnistes doivent trouver leurs propres usages pour les outils de biologie moléculaire et cellulaire (pour les réaffecter en tant que décolonisation et libération des processus et des objets).

Ayant écarté l’équipement et les modèles de production, nous pouvons commencer à expliquer pourquoi nous croyons tellement en l’amateurisme de ceux qui sont engagés dans le DIY (bidouillage), plutôt que dans les spécialistes, pour montrer la voie de la réorientation des outils et des procédés de la biotechnologie. La raison principale en est que les amateurs n’ont pas de conflit d’intérêts. Leurs intérêts sont personnels et ne s’alignent pas sur ceux des entreprises ou des organisations militaires. Comme indiqué précédemment, la science est une entreprise coûteuse (et nous ne pensons pas ici à l' »entreprise »). L’argent doit venir de quelque part et les trois sources disponibles à cet effet sont : l’armée, le gouvernement et les sociétés commerciales. Cela signifie que les programmes de recherche doivent être en adéquation avec l’une de ces institutions. Pour que chaque investisseur continue à verser de l’argent aux laboratoires, ils doivent d’obtenir quelque chose en retour (que ce soit monétaire ou symbolique). Cela met les scientifiques sous la pression constante d’obtenir des résultats concrets. Le savoir ne suffit pas; il doit découler sur une application tangible (rentable). Malheureusement, la réalité pratique tend à orienter la recherche aux dépens de la connaissance pour son propre profit, bien que certains scientifiques soient devenus habiles à détourner un financement en déguisant leurs recherches par le biais d’un stratagème (une tactique courante pour des chercheurs qui explorent l’espace est de dire que leur travail aboutira à une station lunaire). Les amateurs sont complètement en dehors de cette boucle et peuvent diriger leur attention partout où ils le souhaitent. Le potentiel visionnaire des amateurs est bien plus créatif à l’échelle la vie quotidienne. Ils ne sont pas accablés par l’histoire, les normes, l’examen collégial, la survie institutionnelle et la sociabilisation de la vie en laboratoire. Ils peuvent rassembler et réutiliser sans tenir compte des mécanismes répressifs des disciplines.

Une dimension pédagogique fait également partie de cette alternative à la science du pan-capitalisme. Par le passé, le Critical Art Ensemble a mentionné le problème de l’aliénation. Les Biohackers peuvent aider à démystifier la biologie moléculaire en réalisant des projets qui démontrent que des connaissances de base, concernant l’application et le déploiement de la biotechnologie, sont accessibles et peuvent être facilement acquises par le public. Si nous échouons dans cette initiative, la politique publique de la biotechnologie ne sera pas mise au point par un processus démocratique, mais à travers le processus oligarchique actuel où les sociétés font ce qu’elles veulent en créant leur propre recherche et leurs normes de sécurité et de maintien de l’ordre. Comme toutes les alternatives à la règle du pan-capitalisme, elles doivent venir de la base. De ce fait, il y a beaucoup en jeu à l’heure actuelle. Le BioDIY, le biohacking, le bio-interventionnisme, ou quelque soit le nom que l’on souhaite lui donner, a une charge beaucoup plus grande que l’auto-divertissement par la science amateur, mais occupe une place importante dans le développement d’une biopolitique démocratique, des formes futures de la vie, de la santé et de la diversité de l’écosystème mondial. Le Critical Art Ensemble espère vous voir dans le laboratoire public.

Steve Kurtz
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

Le Critical Art Ensemble (CAE) est un collectif de 5 praticiens des tactiques médiatiques [tactical media], formé en 1987 et dédié à l’exploration des croisements entre art, théorie critique et science. Le groupe a exposé et réalisé des performances dans plusieurs lieux à travers le monde, de la rue au musée et en passant par Internet. Le CAE a également écrit six livres. Dans Molecular Invasion (Autonomedia, 2002) le CAE propose un modèle pour la création d’une biologie contestataire déclinée sous forme d’activisme appliqué au domaine organique. Site: www.critical-art.net/