Un manifeste

De la science cinétique à la science sensible… Depuis la création du Laboratoire d’Hydrodynamique (LadHyX) du CNRS et de l’École Polytechnique, Jean-Marc Chomaz s’est investi comme chercheur et artiste dans des projets « Arts et Sciences » en collaboration avec des artistes de toutes les disciplines (cirque, théâtre, design, art contemporain, musique…). Son approche tente de donner directement accès à un imaginaire utilisant le langage et les concepts scientifiques non pour faire preuve, mais pour faire sens.

Gouttes d’oxygène liquide devenues tangibles dans l’installation 2080, présentée dans le cadre de l’exposition Aquaplanet de Labofactory

Gouttes d’oxygène liquide devenues tangibles dans l’installation 2080, présentée dans le cadre de l’exposition Aquaplanet de Labofactory, Zone2Source, Glazen Huis, Amstelpark Amsterdam 31 mai / 23 août 2015, qui a reçu le label Our Common Future Under Climat Change de COP21. Photo: © JMC.

D’où vient cette conviction intime que les politiques de popularisation des sciences actuelles font fausse route ? D’où vient ce sentiment d’urgence absolue qu’il ne faut plus être pédagogique et tenter de communiquer les avancées des sciences en glorifiant ses réussites, mais au contraire que nous autres scientifiques devrions révéler notre face cachée, faite à la fois de ténèbres et de sublime, celle que nous ne maîtrisons ni même ne comprenons, mais qui est à l’origine des vrais progrès scientifiques ? Il nous appartient d’abandonner le soliloque afin de permettre au public d’inventer son chemin, sa découverte, de s’approprier et de raconter l’histoire ainsi, renversant le flux habituel, d’apporter son ressenti son expérience à la science et de venir l’enrichir, cessant d’être ainsi un simple réceptacle inerte pour partager et contribuer au questionnement scientifique.

Les travaux que j’ai réalisés conjointement avec d’autres artistes comme le duo HeHe, Anaïs Tondeur ou encore au sein du collectif Labofactory fondé avec Laurent Karst et François-Eudes Chanfrault (1), n’ont pas pour but de montrer ou démontrer des phénomènes scientifiques, d’asséner des preuves formelles ni d’inviter le public à se joindre à un voyage scientifique lui révélant des faits établis. Ils suggèrent plutôt un point de vue différent, une transgression déstabilisante, une comparaison inconfortable, une expérience corporelle, une métaphore de la physique qui utiliserait l’imagination scientifique pour réinventer notre perception du monde et interroger la vérité dans sa relativité et dans toute sa fragilité.

Aquaplanet, imaginer la planète océan
Dans l’installation Fluxus de Labofactory, de fins bassins à vagues transparents sont perçus comme des tambours mous et silencieux. Le récit artistique devient alors une partition orchestrée par les propriétés physiques des cymbales, leurs résonances, leurs attaques et leurs vibratos, construisant une fantaisie visuelle par le biais de leur matérialité inversée, associant la transparence de l’eau avec la brume froide, seule matière visible s’élevant dans les airs au-dessus de l’interface. Avec ce collectif nous avons créé en mai 2015 l’exposition Aquaplanet à Amsterdam (2). Aquaplanet est une abstraction scientifique, une planète entièrement recouverte d’eau sans continent, sans relief même sous-marin, juste les vagues et le vent. Une fiction qui permet d’interroger la ronde rugissante de l’atmosphère et de l’océan, l’étonnante complexité d’une épure dans l’imaginaire de silicone de nos machines.

L’exposition Aquaplanet est un manifeste, un territoire d’invention à la fois sensible, familier et étrange. Elle est habitée des tempêtes de l’installation Fluxus qui transforme Amstelpark en navire traversé des vagues gravitationnelles de la maison de verre. Elle nous dit la fragilité de l’atmosphère par l’installation performance 2080, où l’oxygène de l’air devient tangible. Dans l’installation Red shift de Labofactory, nos ombres que l’expansion de l’Univers décale vers le rouge renoncent aux aplats de lumière, noires surfaces découpées qui revendiquent les quatre dimensions et se placent fièrement entre le soleil et sa proie. Elles flottent dans l’espace comme des lambeaux de ciel abandonné des astres. L’installation Red shift permet à nos sens de percevoir la course de notre planète à travers les dilatations de l’espace-temps, fantôme d’éolienne générant le vent solaire. Elle figure aussi les souffles de l’air d’une atmosphère où s’impriment les ombres des créations anthropiques.

Catastrophe domestique n° 3 : La Planète Laboratoire, installation créée en collaboration avec HeHe, un jouet, un globe terrestre tournent dans un réservoir ressemblant à une installation scientifique. À intervalles réguliers, un nuage vert fluorescent apparaît, atmosphère ténue qui se répand du pôle à l’équateur avant de s’évanouir dans l’éther liquide avec lequel elle se confond. Bien que les phénomènes physiques à l’œuvre dans la maquette du globe ne correspondent à rien de similaire à l’échelle de la planète, la métaphore opère.

Catastrophe domestique n° 3 : La Planète Laboratoire, installation créée en collaboration avec le duo d’artistes HeHe (Helen Evens & Heiko Hansen) présentée à l’exposition Carbon 12

Catastrophe domestique n° 3 : La Planète Laboratoire, installation créée en collaboration avec le duo d’artistes HeHe (Helen Evens & Heiko Hansen) présentée à l’exposition Carbon 12, espace Electra, fondation EDF Paris, 2012. Montage Photo: © JMC.

La disparition d’une île
L’exposition Lost in Fathoms présente le résultat de recherches partagées et menées pendant plus d’un an au LadHyX avec un ensemble d’installations interrogeant la lithosphère et l’océan (3). La Machine à tremblements de terre, sous l’action constante répétée à l’infini du glissement d’une plaque tectonique, une pierre de basalte effectue des mouvements soudains imprévisibles. Les deux forces dont la brisure d’équilibre provoque le glissé, la friction et la déformation élastique du milieu ont été dissociées par l’ajout d’un champ magnétique permettant de libérer la pierre de l’emprise du réel. Cette hésitation entre tremblements et stupeur est transcrite par une écriture de soubresauts, mystérieuse et chaotique qui en devient presque surréaliste. Le titre de l’installation pourrait être aussi Champs Magnétiques, l’écriture automatique des roches tectoniques pour faire référence à la publication d’André Breton et Philippe Soupault Champs Magnétiques expérimentant à deux les techniques d’écriture automatique libérant l’inconscient comme en réponse aux blessures indicibles de la guerre.

Ici les forces telluriques semblent avoir pris forme en un récit automate qui interroge la légitimité de l’homme, à se proclamer force façonnant la planète. Un peu comme si les rochers dans le lointain d’un tableau de Dali se mettaient à bouger et exprimer la persistance de la pierre. Un peu plus loin, l’installation La dernière vague de la MOC, présente un océan parallélépipédique dans lequel l’eau profonde se forme régulièrement et finit par sombrer, mélangeant infiniment lentement toute l’eau contenue et, ce faisant, ralentissant la circulation thermohaline océanique réelle vers un nouvel événement anoxique. La variation de densité, les turbulences et les mouvements des vagues dans le liquide sont soulignés par des ombres sur les murs de la galerie, et le visuel continue à évoluer au fil des semaines tandis que les eaux se mélangent, jusqu’à disparaître complètement : au terme de l’exposition, l’eau contenue dans le réservoir étant devenu complètement homogène.

Ces aventures partagées avec des artistes aux démarches et aux interactions extrêmement diverses et venues de parcours de recherche bien distincts m’ont amené à réaliser, cependant, que celle-ci est étroitement liée à une signification et à un engagement plus profonds. L’espèce humaine qui, à l’échelle géologique, aurait dû rester un événement éphémère et marginal se voit confrontée à une menace mortelle directement liée à sa propre action et à son utilisation désinvolte, dénuée de verbalisation et de remise en cause, de la science et de la technologie. La fascination exercée par la science sur l’esprit de tout un chacun, à commencer par les scientifiques eux-mêmes, reste extrêmement puissante, comme l’atteste la couverture médiatique de l’observation probable du Boson de Higgs : elle a donné une tribune à la science et changé la pensée critique en permafrost. La science a donc besoin d’être réenchantée, réinvestie par l’humain, afin de permettre à de nouvelles histoires d’émerger en pensée et en parole et de constituer une « chanson de geste » moderne, entièrement consacrée à des actions durables à l’échelle planétaire et à l’émergence de chemins de pensée éthiques, globalement assumés.

La toute-puissance scientifique et la foi à tout crin de la science dans le progrès font désormais partie de discours du XIXe et XXe siècles  : lequel appartient à des certitudes d’un autre âge, dont la voix qui s’efface nous invite à reprendre le cours de l’histoire. De nos jours, les avancées scientifiques sont souvent perçues davantage comme une menace que comme un progrès. Les scientifiques commencent à comprendre que la science et l’approche scientifique elle-même sont peut-être impuissantes à résoudre, voire à appréhender la réalité et la signification de, par exemple, l’évolution du climat ou les nouvelles frontières que constituent aujourd’hui les questions de la vie et de la conscience.

Projection physique de 5 mètres de diamètre de La dernière vague de la MOC capturée dans un océan de laboratoire de 1,2x06x0,7m3, installation réalisée lors de l’exposition Lost in Fathoms

Projection physique de 5 mètres de diamètre de La dernière vague de la MOC capturée dans un océan de laboratoire de 1,2x06x0,7m3, installation réalisée lors de l’exposition Lost in Fathoms de Anaïs Tondeur et Jean-Marc Chomaz, présentée à laGV-Art Gallery à Londres en 2014. Photo: © JMC.

Penser un nouveau pacte pour l’anthropocène
Une grande partie de ma recherche scientifique et de mes travaux associant l’art et la science ont pour objet la question du changement climatique, et plus précisément comment prévoir, analyser, mais aussi appréhender la portée, dans l’état des connaissances actuelles, de la notion d’anthropocène; l’usage controversé de ce terme, qui à lui seul fait office de manifeste, remet en question l’impact et l’éthique de l’homme et exige un engagement tant individuel que collectif en vue de la définition et de la construction d’un nouveau pacte, un new deal actualisé et partagé.

De tels problèmes et défis globaux échappent à la seule sphère de la science, laquelle est conçue pour fractionner un problème complexe et délicat en plusieurs petits systèmes isolés, jusqu’à atteindre un stade où la question peut faire l’objet d’une expérience de laboratoire, d’une étude informatique ou d’une modélisation dans le cerveau d’un scientifique. La science n’a jamais été pensée pour reconstruire le système fragile et complexe dans son ensemble.

Il nous faut un protocole différent, une autre approche et un nouveau schéma d’analyse pour aborder les défis que posent les phénomènes multiples, complexes et transdisciplinaires imbriqués dans le concept d’anthropocène. Une pensée globale, ou plus précisément une vision syncrétique qui, à l’instar de la perception intuitive globale des jeunes enfants, s’est vue effacée par la pensée rationnelle régnant dans l’enseignement institutionnalisé qui se contente de fractionner une question légitime en sous problèmes rigoureux et sans valeur. Dans le domaine artistique, une telle représentation syncrétique (non fragmentée) du réel a été explorée par les cubistes, qui ont cherché à apprendre à dessiner comme un enfant, mais dans le domaine scientifique, la question de savoir comment acquérir et développer une vision plus intuitive, plus globale, reste inexplorée et n’a même pas été formulée.

Le principe de précaution, adopté pour la première fois par les Nations Unies en 1982 en même temps que la Charte mondiale de la nature, est conçu pour traiter de problèmes trop complexes pour que la science puisse leur trouver de solution en l’état actuel de nos connaissances, et prendre des décisions sans la certitude de faits scientifiquement établis. Ce principe est extrêmement difficile à appliquer, car pour parvenir à une stratégie, il faudrait au moins trois ingrédients actuellement absents : établir les statistiques de l’incertitude due à la fois à notre ignorance actuelle du système et de la variabilité intrinsèque des mécanismes physiques impliqués, quantifier et mesurer les dangers potentiels (espérance de perte) ainsi que les actions à entreprendre (fonctions de coût).

Dans l’éventualité qu’une telle stratégie voie le jour, nous manquerions encore de moyens pour l’imposer aux gouvernements et aux populations qui réévalueraient cette politique à l’aune de leurs intérêts propres. Plus précisément, les réponses apportées aux problèmes cruciaux soulevés par l’ère nouvelle de l’anthropocène exigeraient certainement des modifications radicales de comportement qui ne pourraient pas être obtenues par la seule pédagogie, le niveau d’action nécessaire ne pouvant être atteint qu’avec la conviction et l’implication de tous.

Recherches en Laboratoire au Department of Applied Mathematics and theoretical Physics avec les étudiants de la Summer School Fluid Dynamics for Sustainability and Environment réalisées dans le cadre du projet Lost in Fathoms

Recherches en Laboratoire au Department of Applied Mathematics and theoretical Physics avec les étudiants de la Summer School Fluid Dynamics for Sustainability and Environment réalisées dans le cadre du projet Lost in Fathoms de Anaïs Tondeur et Jean-Marc Chomaz. Photo: © JMC.

Afin d’aborder des problèmes aussi complexes, notre vision doit non seulement se faire syncrétique, mais aussi globale, c’est-à-dire qu’elle doit être défendue et partagée par un groupe extrêmement large d’êtres humains. La signification donnée au mot anthropocène et la nature même de l’ère à venir seront le fruit de toutes les histoires et actions humaines, individuelles et collectives, que nous entreprendrons en réponse à cette représentation et à cette verbalisation de la trajectoire de l’humanité. Mais la science seule ne peut pas produire une telle vision.

La science n’est qu’un protocole abstrait et spécifique : afin d’intégrer des observations récentes, elle propose de nouveaux modèles mathématiques hautement idéalistes, et en essence extrêmement limités, puis en tire de nouvelles prévisions qu’elle confronte à de nouvelles mesures jusqu’à ce que le modèle ne corresponde plus aux observations, et recommence tout à zéro. Enfermée dans un tel protocole de la preuve, la science semble éternellement condamnée à passer de modèles incomplets à des modèles inconsistants ou incohérents, sans aucun espoir de ne jamais atteindre ce qu’on pensait être autrefois la vérité en attente de révélation : Gödel l’a démontré, dès les années 30, pour un ensemble de problèmes dans ses fameux théorèmes d’incomplétude (4).

Le discours scientifique est donc de prétendre que le modèle lui-même est une représentation du monde, sans se soucier du fait que la science ne sera jamais en mesure de décrire complètement la dynamique de ce modèle (par exemple, le fait d’imaginer l’univers comme un ensemble de particules élémentaires n’apporte aucun éclaircissement, même à un niveau statistique, puisque le procédé qui réconcilierait l’infiniment petit et l’infiniment grand restera toujours à inventer, en particulier pour les systèmes hors équilibre). La science ne sera pas davantage à même de valider le modèle (du fait de l’extension du théorème d’incomplétude) ni d’établir un modèle pour des systèmes complexes mis en interaction comme dans la dynamique du climat, car d’une part, elle manque de modèles partiels (comme dans le cas de la cryosphère) et d’autre part, les couplages de sous-systèmes restent encore à déterminer (même pour des quantités simples telles que les flux de chaleur entre la cryosphère, les océans et l’atmosphère).

Étant donné toutes ces contraintes et tous ces obstacles, la science elle-même devrait être considérée comme une façon de repenser notre monde, mais seulement comme un protocole parmi d’autres et une pratique parmi d’autres. Selon moi, la science devrait être considérée comme une approche spécifique, que j’appellerai artistique dans le sens où les scientifiques — comme d’autres artistes — appliquent, mettent en pratique leur approche particulière dans le monde réel et s’engagent dans leur vision par le biais d’expéditions, réelles ou virtuelles, et d’expériences de pensée (gedankenexperiment). Une fois reconnue la nature performative de la science, elle-même perçue comme une pratique artistique spécifique, une vision partagée et syncrétique des défis posés à la société pourrait émerger, mais seulement au terme d’une confrontation avec d’autres pratiques artistiques, toutes aussi légitimes que la science puisqu’elles ne font qu’utiliser une plus grande variété de récits pour interroger notre perception, notre représentation et notre pensée du monde.

L’art et la science englobent toutes les performances et les récits nécessaires à cette confrontation, interrogent nos croyances et nos observations, mais aussi la nature, la légitimité et l’éthique de notre pratique scientifique sans les restrictions habituelles imposées à la pensée critique par un protocole de preuve quasi sacralisé et donc impossible à remettre en question. Une fois que cette vision commune judicieuse aura été construite par le biais de l’art, de récits scientifiques et de récits résultant de l’association de la science avec l’art, elle devrait imprégner toutes les actions de tous les individus et de toutes les communautés et secondairement, sans doute contribuer à définir et à attribuer à la science un chemin à suivre plus raisonnable, ou tout au moins ramener en son sein la possibilité d’une pensée critique.

Jean-Marc Chomaz
publié dans MCD #79, « Nouveaux récits du climat », septembre / novembre 2015

Jean-Marc CHOMAZ est artiste et scientifique, directeur de recherche au CNRS, professeur à l’École Polytechnique. Il a cofondé le Laboratoire d’Hydrodynamique (LadHyX) en 1990, puis le Laboratoire d’excellence LaSIPS en 2011 et les a co-dirigé respectivement de 1990 à 2013 et de 2011 à aujourd’hui.

(1) www.labofactory.com

(2) Exposition Aquaplanet de Labofactory, Zone2Source, Glazen Huis, Amstelpark Amsterdam 31 mai – 23 aout 2015.

(3) Exposition Lost in Fathoms, Anaïs Tondeur et Jean-Marc Chomaz, recherches menées en commun au LadHyX et présentées à la GV-Art Gallery à Londres en 2014.

(4) Kurt Gödel. On Formally Undecidable Propositions of Principia Mathematica and

Related Systems. Dover, 1962.

Kurt Gödel. « Uber formal unentscheidbare Sätze der Principia Mathematica und

verwandter Systeme I». In Solomon Feferman, editor, Kurt Gödel: Collected Works,

volume 1, pages 144-195. Oxford University Press, 1986. German text, parallel

English translation.

 

 

Premier festival en France dédié à l’Open Hardware pour la santé et l’accès aux soins

Une semaine de meet-ups, workshops, conférences et performances à Paris –
Un événement du medialab Makery –

L’ultra-portabilité des technologies de la santé peut-elle réduire l’inégalité d’accès aux soins ? Mouvement international, l’Open Science Hardware s’est donné une feuille de route : proposer l’accès pour tous aux dispositifs médicaux et aux outils d’analyse et de recherche ; développer des outils et prototypes pour faciliter la customisation et le recyclage du matériel pour la santé.

Le medialab Makery invite scientifiques, professionnels de santé, designers et artistes à discuter des enjeux du bioDiY pour la santé tout au long d’une semaine d’ateliers, conférences, démos et performances. Open Source Body fait partie du programme des Journées nationales de l’innovation en santé 2018.

22/26 janvier 2018 – Workshops et Meet-ups – La Paillasse – echOpen – Centre de Recherches Interdisciplinaires (CRI)
26/27 janvier – Festival- La Gaîté lyrique (Paris 3)
Information et programme : www.opensourcebody.eu

Participants : Shu Lea Cheang, Labomedia, Paula Pin, Bureau d’études, Jean-Yves Fagon, Marc Fournier, Imane Baïz, Olivier de Fresnoye, Jean-Baptiste Ronat, François Piuzzi, Dr. Marc Dusseiller, Isabelle Giami, Hélène Le Bail, Dr. Mehdi Benchoufi, Catherine Lenoble, Victor Benichoux,Charlène Guillaume, Lisa Dehove, Xavier Montoy, Guillian Graves, Maria Molina Calavita, Céline Tchao, Deshmukh Gopaul, Paula Vélez, Joachim Montessuis, Gaël Segalen, MrSosa, Jonathan Keller, Juanma Garcia, Urs Gaudenz, André Maia Chagas, Alexey Zaytsev, Guy Aidelberg, Hugues Aubin, Fanny Prudhomme, Ewen Chardronnet, Jérôme Dubois, Benjamin Cadon, Zoé Bengherbi, Arthur-Donald Bouillé, Muriel Colagrande, Léonard Gaucher, Léopold Lanne, Cléa Bauvais, Jean-Baptiste Ronat, Enrico Bassi, Dasha Ilina, La Paillasse, echOpen, MyHumanKit, GaudiLabs, Hackteria, Pechblenda, Centre de Recherches Interdisciplinaires, Prometheus Science, Koi Science, Sano Celo, Ovaom, Institut Pasteur & ENSCI-Les Ateliers, Les Parleuses, Waag Society, Center for Technological Pain, Les Parleuses, MAde4You – Opendot fablab Milan, Open Science School, Médecins sans Frontières, Société Française de Physique, Médecins du Monde, Gynécologies sans Frontières, GOSH.

Production : Makery by Art2M
Partenaires production : La Gaîté lyrique (Paris 3), La Paillasse (Paris 3), Centre de Recherches Interdisciplinaires (Paris 15), echOpen (Paris 4)
Partenaires et soutiens : Open Science School, Champ des Possibles, Doing-It-Together-Science, Club Maté

 

AGIR (ET NON PAS RÉAGIR)
un point de vue sur la conservation des arts numériques

Le caractère performatif et contextuel des œuvres numériques est indissociable de la matérialité de leurs supports. Dans ce cadre, comment conserver à la fois cette matérialité et le comportement de l’œuvre de la manière la plus authentique possible ? La règle d’or : anticiper.

Acquisition d'équipements de remplacement par le ZKM, série de SGI indigo, 2014.

Acquisition d’équipements de remplacement par le ZKM, série de SGI indigo, 2014. Photographies des réserves du ZKM où sont entreposées une vingtaine d’ordinateurs de type SGI Indigo destinés à la conservation des œuvres de sa collection permanente. Photo: Morgane Stricot / © ZKM, Karlsruhe.

Les matériels et logiciels dont les œuvres numériques sont tributaires pour véhiculer leur discours sont des supports indispensables, mais instables. L’obsolescence confère à la matérialité initiale de ces œuvres une date limite de conservation. La seule solution à long terme, désormais largement acquise, est la mise à jour continuelle et systématique de cet environnement technologique. Seulement les mises à jour matérielles entrainent bien souvent des remaniements logiciels et des modifications plus ou moins légères du comportement ou de l’esthétique des œuvres. C’est pourquoi ces stratégies de conservation préconisant le changement technologique comme seul moyen de préserver l’art numérique se mêlent à un intérêt historique, prônant une archéologie des média et une culture de la réparation. Ces deux approches sont tout à fait légitimes, et à mon sens, fortement complémentaires, tant qu’elles sont réalisées au bon moment, à la lumière d’une documentation solide.

Réagir, c’est souvent déjà trop tard
Avec comme ennemi n°1 un phénomène socio-économique incontrôlable, réagir n’est pas une option. Si on agit, ou plutôt on réagit, au moment où un problème survient, c’est qu’il est déjà trop tard. C’est pourquoi l’anticipation est un prérequis indispensable à la préservation des œuvres numériques.

À la question « quand doit-on agir ? », ma réponse est simple : quand tout va bien. C’est-à-dire lorsque l’œuvre fonctionne correctement dans son contexte technologique d’origine. C’est à ce moment-là que des mesures peuvent être entreprises en prévision des changements technologiques à venir. En effet l’œuvre dans sa version 1.0 nous fournit un point de référence nécessaire avant toute intervention de conservation ou d’actualisation. Sa documentation approfondie et son maintien, notamment grâce à de bonnes conditions de stockage et à la duplication, permettent d’envisager des scénarios d’actualisation et de comparer le comportement et l’esthétique de l’œuvre tout au long de ce processus. La perte de la version initiale consécutive à un temps d’attente trop long rend tout effort de conservation à long terme risqué en termes d’authenticité.

La duplication et le versioning, entrepris simultanément, permettent d’apporter des solutions de préservation viable à court et à long terme. Ces deux concepts de conservation se composent des différentes stratégies de conservation existantes à l’heure actuelle. Ces stratégies, souvent issues des sciences de l’information et de la communication, ont été théorisées et mises en pratique par des organisations comme le DOCAM (1), Forging the future (2) ou encore les projets Matters in Media Art de la Tate (3) et Digital Art Conservation du ZKM (4).

Dupliquez, dupliquez, il en restera quelque chose…
La façon la plus simple de préserver le comportement et l’esthétique d’une œuvre numérique est de conserver le plus longtemps possible son environnement technologique historique. C’est-à-dire de faire fonctionner son dispositif matériel original ou un dispositif identique (même époque, même modèle) avec l’environnement logiciel d’origine ou les données initiales.

TV-BOT 1.0 (2005) et TV-BOT 2.0 (2010), Marc Lee, 2011. Mise en regard de deux versions de l'œuvre TV-BOT lors de l'exposition Digital Art Conservation au ZKM | Medien Museum en 2011.

TV-BOT 1.0 (2005) et TV-BOT 2.0 (2010), Marc Lee, 2011. Mise en regard de deux versions de l’œuvre TV-BOT lors de l’exposition Digital Art Conservation au ZKM | Medien Museum en 2011. TV-BOT 1.0, étant aujourd’hui inaccessible dans sa version originale à cause de problème de compatibilité avec les navigateurs web actuels, a été exposée sous forme de documentation vidéo sur un écran cathodique aux côtés de sa version migrée. Cette version « figée » donnait alors à voir le comportement et l’esthétique d’origine de l’œuvre. Photo: ONUK / © ZKM, Karlsruhe.

Il existe plusieurs stratégies et pratiques visant à prolonger la durée de vie des œuvres numériques dans leur contexte technologique historique : la réparation du dispositif avec l’aide de pièces détachées, le remplacement par un modèle identique, l’inspection régulière de l’état de marche, la sauvegarde redondante des données et enfin l’entreposage et la manipulation dans de bonnes conditions.

La duplication est une méthode de conservation par anticipation combinant toutes ces stratégies. Il s’agit ici d’implémenter la copie des données propres à l’œuvre réalisée lors des sauvegardes (dans leur format d’origine (5)) sur les équipements de remplacement (ce qui implique d’avoir acquis ces équipements avant leur indisponibilité sur le marché). Tout ceci dans le but de dupliquer X fois l’œuvre dans son ensemble et ainsi créer plusieurs exemplaires identiques et fonctionnels.

Avoir plusieurs exemplaires fonctionnels permet de gagner du temps pour d’éventuelles mesures d’actualisation, d’avoir une connaissance documentaire et technologique approfondie du dispositif et du comportement de l’œuvre et enfin d’éviter des problèmes d’incompatibilité en testant les copies et données avec le matériel qui leur est dévolu.

…enfin, pas à long terme…
La duplication ne permet pas toutefois de conserver une œuvre à long terme puisque même si un entreposage effectué dans les meilleures conditions possible prolonge la durée de vie des composants, ils finiront fatalement par être défectueux et introuvables sur le marché. C’est pourquoi le versioning peut être envisagé.

Le versioning (6) consiste en la création d’une ou plusieurs versions mises à jour de l’œuvre. C’est-à-dire tous les exemplaires résultant de l’actualisation de l’environnement technologique de l’œuvre, se référant à l’exemplaire 1.0. Ce concept de conservation regroupe un panel de stratégies allant de la migration sans changement discernable du comportement de l’œuvre jusqu’à la réinterprétation de l’idée qui la sous-tend.

 

Diagramme Digitalis (diagramme méthodologique de la préservation d’objets numériques complexes), 2014.

Diagramme Digitalis (diagramme méthodologique de la préservation d’objets numériques complexes), 2014. Le projet Digitalis a commencé en 2012, dans le cadre du projet de fin d’étude de Morgane Stricot à l’École Supérieure d’Art d’Avignon. Ce diagramme est accessible en trois langues (français, allemand et anglais). Photo: Morgane Stricot / D.R.

Quelle que soit la stratégie choisie, on apportera ici une modification plus ou moins sévère du code source, des données ou des artefacts de représentation. La migration, la virtualisation, l’émulation et le portage n’apportent la plupart du temps qu’une actualisation du « contenant » alors qu’avec la réinterprétation on passe à l’actualisation du « contenu », c’est-à-dire de l’idée, à l’écosystème médiatique contemporain à chaque nouvelle exposition. Le versioning est une manière d’accompagner l’évolution naturelle du concept de l’œuvre.

Certains comportements sont conditionnés par les matériels historiques et d’autres comportent des éléments contextuels, c’est pourquoi une bonne documentation et surtout une collaboration active entre domaines de compétences et le ou les artistes sont primordiaux afin de définir une limite claire entre évolution naturelle et amélioration technique ou esthétique.

Une réserve cependant. Une actualisation du « contenant » apportera souvent des modifications du comportement et de l’esthétique de l’œuvre, même si bien souvent, c’est de manière bénéfique ou du moins contrôlable (8). Une utilisation excessive et arbitraire de la réinterprétation donnerait alors lieu à un work-in-progress sans fin, ne laissant plus de place à l’historicité et à la chronologie et surtout empêchant ainsi les futures générations d’artistes numériques de s’inscrire dans le paysage technologique qui leur est propre.

Digitalis, un diagramme pour agir
Il est clair qu’il n’existe pas une méthode unique applicable à tous les cas, mais plutôt que chaque cas vient nourrir des méthodes différentes. Fort de ce constat, j’ai mis sur pied un diagramme méthodologique expérimental en ligne, appelé Digitalis (7). Normatif, il donne une vue d’ensemble des phases contribuant à la préservation d’objets numériques complexes en milieu muséal. Il a pour principal but d’aider les différents acteurs à définir les paramètres d’instanciation d’une œuvre afin de prendre une décision qui préserve son comportement et donc son authenticité. Il leur permet également de se poser les bonnes questions afin de maintenir cette authenticité malgré les divers changements technologiques.

Enfin, en étant le plus objectif possible, il aide à comprendre les potentiels risques et bénéfices de chaque stratégie de conservation, afin d’en choisir une en toute connaissance de cause. Ce diagramme tente d’apporter une approche plus scientifique et systématique de la conservation de l’art numérique. Sa forme circulaire illustre la nature proactive de la conservation : aucune solution n’est durable, il faut en permanence agir. Digitalis fait d’ailleurs l’objet d’une amélioration et d’une adaptation constante liée à l’évolution des pratiques numériques. Toute participation est la bienvenue.

Morgane Stricot
conservateur-restaurateur, ZKM (Zentrum für Kunst und Medientechnologie), Karlsruhe, Allemagne.

publié dans MCD#75, « Archéologie des médias », septembre / novembre 2014

(1) L’Alliance de recherche DOCAM (Documentation et Conservation du patrimoine des Arts Médiatiques) a été initiée par la Fondation Daniel Langlois pour l’art, la science et la technologie (FDL) en 2005. www.docam.ca/ (consulté le 23 février 2014)

(2) Forging the future : nouveaux outils pour la préservation des médias variables. http://forging-the-future.net/ (consulté le 23 février 2014)

(3) Ce projet collaboratif, lancé en 2005 par le New Art Trust (NAT), le Museum of Modern Art (MoMA), le San Francisco Museum of Modern Art (SFMOMA) et la Tate, a pour but d’aider ceux qui collectent et conservent les œuvres à obsolescence technologique (time-based media artworks). www.tate.org.uk/about/projects/matters-media-art (consulté le 09 mars 2014)

(4) ZKM, Zentrum für Kunst und Medientechnologie Karlsruhe. Ce projet de recherche (2010-2012) a été consacré à l’exploration de stratégies de conservation de l’art numérique. www02.zkm.de/digitalartconservation/ (consulté le 23 février 2014)

(5) Image disque (système d’exploitation, programmes, données et pilotes), CD, DVD, cassette ou cartouche de jeux vidéo par exemple.

(6) Terme habituellement utilisé en développement logiciel. La définition est ici étendue à l’environnement matériel de l’œuvre.

(7) Digitalis, diagramme méthodologique de la préservation d’objets numériques complexes. http://digitalis.litchio.com

(8) Par exemple, le passage d’un vidéoprojecteur CRT à un vidéoprojecteur HD apporte bien souvent une meilleure lisibilité de l’artefact de représentation (luminosité, contraste et rendu des couleurs). Autre exemple, l’ajout d’une portion de code permettra de pallier au problème de vitesse lors d’une migration vers un ordinateur de plus forte puissance.

 

Recherche musicale et intelligence digitale

Dans le cadre de ce MOOC Dominique Moulon reçoit Gérard Assayag, chercheur, responsable de l’équipe « Représentation musicale » de l’IRCAM qui nous parlera de recherche musicale et d’intelligence digitale. Tout d’abord, l’Histoire de la musique du 20e siècle sera mise à l’honneur.

En effet, il s’agira de s’intéresser à la double révolution mise en place ; d’une part celle du langage musical, de la structure formelle (avec la deuxième école de Vienne – dont les principaux représentants sont Arnold Schönberg, Alban Berg et Anton Webern) et d’autre part celle de la lutherie musicale (avec l’invention du Thérémine ou encore des ondes Martenot).

Ces expérimentations ont donné un nouveau champ de liberté pour la musique devenant dodécaphonique, atonale ou encore sérielle (Pierre Boulez, Stockhausen) préfigurant ce que l’on appelle aujourd’hui la musique contemporaine (musique électro-acoustique, électronique, hybride, mixte, etc.).

Un cours animé par Dominique Moulon pour le Mooc Digital Media de l’École Professionnelle Supérieure d’Arts Graphiques de la Ville de Paris.
Réalisé à l’IRCAM. Co-produit par MCD. Décembre 2017.
> http://moocdigitalmedia.paris/cours/recherche-musicale-intelligence-digitale/recherche-musicale-intelligence-digitale/

Liberté et révolution sur la toile : qu’il s’agisse du libre accès aux sites en P2P, de la lutte contre les blogs xénophobes ou de l’aide apportée aux partisans de la démocratie dans les pays arabes, Telecomix se présente comme l’un des collectifs de hackers les plus actifs sur le terrain technologique.

Dans le sillage et en parallèle de la mobilisation des réseaux sociaux autour des différents mouvements révolutionnaires dit du « printemps arabe », le collectif anonyme d’hacktivistes Telecomix s’est principalement fait connaître à partir de 2009 par une série d’opérations visant à soutenir les luttes démocratiques menées dans ces différents pays du Maghreb et du Moyen-Orient, depuis l’Égypte et la Tunisie jusqu’à la Syrie encore aujourd’hui.

À l’origine, les membres de Telecomix proviennent de différents milieux activistes web (The Pirate Bay, la Quadrature du Net, ou les défenseurs des droits au peer-to-peer suédois de Piratbyrån, entre autres). Ils se sont tout d’abord réunis pour se mobiliser contre une proposition de loi discutée au Parlement européen sur la surveillance du web et sur la conservation des données numériques. Leur premier objectif, fondamental, est donc celui de la défense des libertés de communication partout dans le monde.

 

Groupe anonyme au départ, le collectif s’est davantage « ouvert » ces dernières années — ses membres (estimés au total à environ 250) prenant la parole sous leur véritable identité, même si le discours général de Telecomix reste nettement ancré dans un style volontairement symbolique — au-delà de l’utilisation de multiples logos, les notes d’intention du collectif sur son site font ainsi référence à tout un tas d’axes de « désorganisation politique » autant imagés que chaotiques, mettant en avant les concepts de « machine abstraite », de « données affectives » ou « datalove », et autres concepts entendant promouvoir des principes théoriques de relations entre l’humain, la machine et le robot — et incarné, par exemple, par l’existence au sein du réseau d’un bot, nommé cameron, véritable représentation informatisée du groupe.

Datalove.

Darknet et champs de bataille technologique
Au-delà de cette rhétorique parfois assez nébuleuse, relevant d’après le collectif lui-même d’un discours fortement teinté de crypto-anarchisme, Telecomix trouve une résonance plus concrète dans ses différents projets et opérations. En terme de liberté de circulation sur la toile, le collectif offre ainsi le service Streisandme (en référence à l’effet Streisand qui se caractérise par la promotion non désirée d’informations) qui permet de mettre en place un site miroir sur son ordinateur afin de pouvoir accéder incognito à des sites censurés ou bloqués.

Telecomix héberge également un service de recherche basé sur Seeks, un moteur de recherche P2P open-source axé sur la protection de la vie privée des utilisateurs et des requêtes de recherche initiales effectuées par ces derniers. Telecomix offre enfin des accès à des canaux de discussion privés — et donc normalement non surveillés — via des réseaux IRC (Internet Relay Chat) constitués de plusieurs serveurs indépendants connectés. Des accès qui offrent, via un système de « tunnel », une plongée dans le monde secret du darknet (la face cachée du web), passant par exemple par des réseaux informatiques superposés libres comme Tor. C’est d’ailleurs en accédant à leur channel IRC que la majorité des informations du collectif circulent vers les différents membres ou contacts.

 

Car, c’est plus largement dans des actions concrètes sur les « champs de bataille technologiques » actuels que l’action de Telecomix s’est fait le plus ressentir. En 2011, en Égypte, en Tunisie et en Syrie, les hackers de Telecomix ont ainsi offert leur assistance technique aux internautes et autres bloggeurs de ces pays qui s’étaient vus couper l’accès au réseau par les autorités : méthodes de contournement de la censure on-line pour continuer à poster des vidéos des exactions des régimes en place sur les réseaux sociaux; tutoriel vidéo pour apprendre aux internautes locaux comment restaurer les connexions Internet à partir de vieux modems et autres télécopieurs; apprentissage des règles fondamentales pour pouvoir naviguer en toute sécurité cryptée et anonymement sur le web grâce à des outils de cryptage; site de dépêches et de vidéos mis à jour en temps réel; etc. Le collectif a mis sa science de l’intrusion clandestine dans les réseaux au service de la cause démocratique.

Telecomix Syria, Logo.

#OpSyria
C’est en Syrie, dans ce cadre de l’opération #OpSyria, que s’est déroulé l’épisode le plus médiatique de l’histoire de Telecomix. Cette opération d’investigation web a permis de mettre en lumière les rapports étroits entre le régime syrien et différentes firmes internationales, comme Ericsson — fourniture de matériel de filtrage notamment — et surtout la firme américaine Blue Coat Systems, spécialisée dans la sécurité Internet, qui avait toujours nié jusque là sa présence dans l’ombre du régime de Damas. Quinze appareils de détection de l’entreprise américaine ont ainsi été tracés en Syrie par les hackers de Telecomix. Un pays où, pourtant, les entreprises américaines ne peuvent pas normalement exporter en raison de l’embargo. Ces appareils sont utilisés par le régime pour identifier les personnes accédant aux sites d’opposition, mais aussi pour dérober identifiants et mots de passe, et pour accéder ainsi directement aux comptes privés des citoyens.

 

Conséquence de cet éclatement géographique des stratégies de Telecomix, différents groupes se sont constitués en relation avec certains pays. C’est ainsi le cas de Telecomix Tunisie qui se veut comme un lieu de rencontres et de ressources pour quiconque veut participer à la création d’un Internet résistant à la censure. Mais à l’échelle globale, Telecomix continue d’être actif aujourd’hui sur des questions sociétales en lien avec la montée du racisme, de l’antisémitisme et de l’islamophobie. En novembre dernier, une réunion organisée à Helsinki, en Finlande, associait ainsi Telecomix à un autre groupe de hackers basé en Suède — le Researchgruppen — afin de révéler leurs techniques pour hacker les commentaires xénophobes postés sur certains blogs et ainsi révéler les adresses IP, emails, mais aussi les noms de certaines personnalités publiques ayant proférées ce type de message sous couvert de l’anonymat. Plus que jamais pour Telecomix, la lutte continue…

Laurent Catala
publié dans MCD #77, « La Politique de l’art », mars / mai 2015

Photos: D.R.
> http://telecomix.org