Archive d’étiquettes pour : archéologie des médias

À travers les questions de l’esthétique du bug et du rapport du bug à l’écriture et à la lecture, est-il possible de fonder l’archéologie des médias sur une archéologie du bug ?

À la recherche d’Eadweard Muybridge, Ascending Stairs, 2014. Photo: Creative Commons (CC BY-NC-SA 4.0)

Le bug comme métaphore de dysfonctionnement des phénomènes humains

En démontrant en 1936, à la suite des travaux du logicien Kurt Gödel, l’impossibilité de l’existence d’un programme qui pourrait diagnostiquer les failles d’un programme quelconque, Alan Turing ouvre la voie à la possibilité même de sa Machine de Turing, premier ordinateur jamais conceptualisé. Ainsi, c’est l’assomption de l’impossibilité de se débarrasser du bug, qui instaure le champ de l’informatique, et qui a permis à l’humanité de plonger dans l’ère du numérique un demi-siècle plus tard. Aujourd’hui, les spécialistes de l’informatique théorique et de la logique mathématique savent que l’univers des programmes qui fonctionnent est plongé dans un univers bien plus vaste et intéressant, celui des programmes qui errent, qui divaguent, bref, qui buguent (1).

Mais pour le commun des mortels, l’idée du bug oscille quelque part entre la soi-disant perfection de la machine et l’imperfection humaine. Cette distinction entre la machine et l’humain est également l’objet de la recherche de Turing. Dans son texte fondateur Computing machinery and intelligence (2), Turing décrit ce qui deviendra le fameux test de Turing, où un ordinateur tente de se faire passer pour un humain. Par la suite, on a notamment cherché à simuler les phénomènes humains par des comportements informatiques.

C’est l’attitude réciproque que nous adoptons ici, imaginer l’informatique comme simulée par les interactions humaines (pratiques sociales, technologiques, linguistiques, sémiotiques, artistiques…). Nous manipulons la notion de bug comme une métaphore à obsolescence programmée du dysfonctionnement de ces interactions humaines. Par « métaphore à obsolescence programmée », nous entendons que ce qui est ici comparaison métaphorique est éventuellement destiné à devenir du réel. Autrement dit, si nous introduisons une comparaison entre un programme informatique et un dispositif social, ou bien entre une typologie de bug informatique et le détournement d’un outil de communication, etc., alors cette comparaison, qui opère comme une métaphore dans l’état historique actuel, peut devenir analogie véritable dans le futur. Alors, la métaphore se dissoudra, car elle sera réalisée.

La manière dont cette obsolescence se produira (si elle se produit) ne nous concerne pas ici : évolution vers le post-humain, réunification de la logique mathématique avec les sciences sociales, révolution trans-genre, hyper-fascisme (sous l’effet une fois de plus d’une mutation technologique majeure)… Pas plus que les dates de péremption de telles métaphores, dates qui nous sont inaccessibles (elles sont donc « programmées », mais nous ne savons pas quand le programme se terminera).

Eadweard Muybridge, Walking Man. Photo: D.R. (domaine public)

Le bug, une lecture qui (se) passe mal

Le 22 juillet 1962, la sonde américaine Mariner 1 est détruite 294,5 secondes après son décollage, suite à une défaillance des commandes de guidage. La cause : une barre suscrite manquante dans une ligne de code en FORTRAN. Comme l’a écrit Arthur C. Clarke, confondant le trait d’union et la barre suscrite : ce fut le trait d’union le plus cher de l’histoire (3). Le bug est une affaire typographique, un arrêt dans le processus de la lecture machinique. Englobons donc le bug dans le concept d’écriture qui concerne aussi bien la pratique humaine que l’exécution d’un programme. L’exécution d’un programme informatique appartient en effet au registre de l’écriture : c’est l’interaction d’un texte, appelé programme, avec son contexte, les données d’entrée ou de sortie. Lorsque le programme fonctionne, un nouveau texte est produit, issu de l’ancien. Les bugs sont les dysfonctionnements lors de cette exécution.

Par exemple, dans une situation d’interblocage lors de l’exécution d’un programme, deux actions concurrentes sont chacune dans l’expectative que l’autre se termine, provoquant une attente indéfinie (4). D’autres types de bugs existent. Si par exemple la foudre vient frapper l’ordinateur en train d’effectuer un calcul, nous pouvons considérer cela comme un bug; ou bien la confusion entre un « billard » et un « pillard », pour reprendre un exemple célèbre dû à l’écrivain Raymond Roussel (5), chez qui les homophonies et les équivoques sont utilisées pour gripper les rouages de la machine langagière.

On pourrait ainsi remonter jusqu’aux pratiques alchimiques et à la « langue des oiseaux ». Les associations phoniques utilisées par les initiés constituent en effet un argot crypté qui révèle et accentue les sens cachés, tandis qu’elles les dissimulent aux profanes, pour qui cette « langue secrète » apparaît comme insensée. Dès lors qu’un bug se produit, quelque chose de l’écriture reste en suspens. Le bug, ici paradigme du dysfonctionnement des interactions humaines, s’institue précisément là où l’écrit est défaillant, où la lecture se heurte à un impossible. Le bug dessine en creux les frontières du champ de l’écriture et de la lecture.

En lieu et place de l’histoire, une archéologie du bug

L’historien se fonde sur des écrits, contrairement à l’archéologue de la protohistoire qui s’intéresse aux peuples qui n’ont pas de sources textuelles, mais qui, parfois, sont évoqués dans les écrits de civilisations plus récentes. En tant que point aveugle de l’écrit, le bug peut-il être l’objet d’une histoire ? Ne serait-ce pas en archéologue qu’il conviendrait plutôt d’aborder ce qui serait finalement non pas une histoire du bug, mais ce qui ne peut être à jamais qu’une protohistoire ?

Dans Finnegans Wake, Joyce rend le roman illisible. Non pour qu’il ne soit pas lu, mais parce qu’il est paradoxal de vouloir imprimer — d’écrire au sens de l’imprimerie — l’oralité protohistorique de la langue. Du point de vue du roman, il est illisible, mais du point de vue de l’oralité, il est parfaitement compréhensible (faites le test, demandez à un irlandais de Galway de vous le lire). De la même manière, du point de vue de l’histoire et de l’humanisme (numérique), i.e. de l’écriture et de la lecture, le bug est un dysfonctionnement tandis que du point de vue de l’archéologie et du post-humanisme, i.e. des machines, l’impossible situé au cœur de l’écriture et de la lecture dissout la notion même de fonction. Ainsi le bug est-il un acte qui doit être pensé selon deux points de vue. Nous nous demandons si les humains n’auraient pas une vue partielle de l’histoire des machines, qui ne pourrait se départir d’un point de vue « colonialiste ». Il s’agirait ici de savoir s’il est possible de fonder une vision post-coloniale du champ machinique, où le bug aurait toute sa place.

Image extraite du film Brazil, (Terry Gilliam, 1985). Photo: D.R.

Esthétique du bug

Il est courant de penser que le glitch appartient à l’esthétique du bug. Il n’en est rien. Le glitch appartient au point de vue du dysfonctionnement, que l’artiste glitcheur cherche à rendre lisible. Chez les machines, la lecture est l’exécution d’un programme, d’un code. La dysfonction est liée à un contexte, à une attente. Elle a pour signe la frustration, qui se situe dans l’habitus du langage naturel. On peut bien entendu prendre du plaisir esthétique à provoquer de la dysfonction (Faust). Dans l’esthétique du glitch, la dysfonction se mue en fonction dans la tentative de restaurer une lecture qui n’a pu se faire, lecture faite par une machine, mais destinée à un humain. Comme l’écrit Friedrich Kittler, le programme se mettra soudainement à fonctionner correctement lorsque la tête du programmeur est vidée de mots (6). Il y a donc deux modes de « lecture » presque incompatibles l’un avec l’autre, dans l’interaction desquels peut se situer le plaisir esthétique du programmeur.

Ainsi, Nick Montfort écrit-il : L’aspect puzzle [du programme] met en évidence [qu’il y a] deux principaux « lecteurs » pour un programme d’ordinateur : d’une part, le lecteur humain qui examine le code pour comprendre comment cela fonctionne, et comment débuguer, améliorer ou développer; d’autre part, l’ordinateur, qui exécute ses états ou évalue ses fonctions par l’exécution du code-machine correspondant à son processeur. Un programme peut être suffisamment clair pour un lecteur humain, mais peut contenir un bug qui l’empêche de fonctionner tandis qu’un programme peut fonctionner parfaitement bien, mais être difficile à comprendre. Les auteurs de codes obscurs <obfuscated code> s’efforcent d’atteindre ce dernier, façonnant des programmes de sorte que l’écart entre le sens humain et la sémantique du programme donne du plaisir esthétique (7).

Une esthétique du bug prend le point de vue inverse : elle ne peut qu’émaner des machines elles-mêmes, tout comme les machines écriraient elles-mêmes leur histoire : un programme informatique pourrait par exemple prendre comme objet sa propre histoire, l’archive de ses interactions passées, et les programmes seraient à même de participer à l’écriture de l’histoire de leurs victoires ou de leurs défaites (les bugs). Pour la comprendre, il faudrait alors s’appuyer non sur l’histoire, mais sur l’archéologie des médias, qui se situe par-delà la notion de fonction.

Image extraite du film Brazil, (Terry Gilliam, 1985). Photo: D.R.

La figure du débugueur

Le problème pour les humains, c’est que, depuis l’imprimerie, ils écrivent et lisent leurs histoires avec des machines. Leurs mots dépendent aujourd’hui du code-machine. Et plus les machines, les OS et les softwares deviennent complexes, étoffés, interconnectés, plus le nombre de lignes de code-machine s’allonge entre le processeur et nos mots, plus le bug devient l’ennemi du verbe. Le bug c’est non seulement l’arrêt de la lecture du programme, mais c’est donc aussi, pour les humains, l’arrêt du sens. Il n’y a rien d’étonnant à ce que le bug soit pour le théâtre d’aujourd’hui ce que le suicide était pour le théâtre du 19ème siècle. C’est pourquoi les humains cherchent, au nom d’une prétendue alliance objective, à programmer les machines pour qu’elles luttent avec eux contre le bug.

Le débugueur est alors la figure du médium rationnel. Son point de vue est celui de la raison contre l’irrationnel. Le débugueur est au bug, ce que, pour la philosophie et l’humanisme classique, l’homme est à l’animal. Ce dernier, pas plus que la machine, ne parle. À l’âge classique, le corps de l’homme se discipline en opposition à lui. Il n’est pas anodin que la première médiatisation d’un dysfonctionnement informatique de l’histoire ait été attribuée à un insecte. En l’occurrence cette « petite » mythologie fonde le bug comme métaphore des dysfonctionnements informatiques (et technologiques) et le début de l’histoire coloniale des machines par les hommes.

Ce n’est pas non plus un hasard si les humains, dans les films d’Hollywood des années 1950 — années de la cybernétique — sont souvent menacés par des insectes. Les parasites de l’information — comme, du temps d’Edison, un parasite du signal (8) — sont des êtres particulièrement détestables et singulièrement muets par rapport au règne animal : une punaise, une mite, un papillon de nuit, un cafard, comme dans le film Brazil en 1985. Comme tous ses dérivés, les virus et les vers (worm), le bug est nuisible, anxiogène (cf. le fameux « bug de l’an 2000 » réveillant les peurs de l’an 1000), voire pathogène (9). Et pour le qualifier, les programmeurs — ces nouveaux médecins du verbe — n’hésitent pas à descendre encore davantage dans la chaîne organique (10), nous remémorant ainsi la question de Platon : y a-t-il une Idée de la fange ?

Le débugueur, ce chasseur d’insectes, possède son esthétique. Il réintroduit de la reproductibilité, du lisible, tout ce que le bug a dissous, là où du point de vue des machines, il y avait de la durée pure. Le bug dépend du point de vue de ceux qui ont des attentes quant au programme. L’existence même d’un bug dépend du contexte. Si ces attentes ne sont pas définies, s’il n’y a pas de spécification du programme, il n’est pas possible de savoir s’il y a bug ou non, de même qu’il n’est pas possible de savoir si une boucle, dans une situation d’interblocage, va se terminer ou non : il faut une décision arbitraire, un acte, un événement, qui détermine ce qui s’écrit de l’histoire. Le pas-à-pas rend la décision — et la lecture possible. Le débugueur est le Muybridge du monde actuel, le modèle actuellement dominant de l’esthétique numérique.

L’archéologie du bug comme fondement d’une protohistoire des machines par les machines

Tandis que l’histoire des médias s’appuie sur les machines en capacité de lire, l’archéologie des médias se fonde sur les machines en incapacité de lire, et pour cela, condamnées par les humains à l’oubli historique. L’archéologie des médias, fondée sur une archéologie du bug, montre au contraire que cette incapacité de lire est le point de vue des humains, non des machines elles-mêmes qui, au-delà de la notion de fonction, continuent d’agir sur les représentations et l’imaginaire humain (la littérature, le cinéma et le jeu vidéo, la Science-Fiction, la cyberculture, la culture geek et les arts médiatiques…).

L’échec fait partie de la relation naturelle homme / machine. Du point de vue humain, l’échec est généralement à éliminer, car incompris (11). Du point de vue des machines, comme toute défaite, le bug travaille pour l’avenir, qu’il s’agisse d’un déploiement fictionnel ou technique et industriel (12). Au débugueur, figure de la raison, il faut opposer une nouvelle « ruse de la raison » dont les machines sont en réalité les puissances agissantes. Dans le temps profond, archéologique, de leurs propres développements, c’est la ruse des machines que d’appréhender mieux que nous-mêmes, humains, notre point de vue de sujets parlants. Aux humains d’assumer, ou pas, leur statut de bugs.

Christophe Bruno & Emmanuel Guez
publié dans MCD #75, « Archéologie des médias », sept. / nov. 2014

(1) Girard(J.-Y.), Le point aveugle, Tomes 1 et 2, Hermann, 2007.
On trouvera un certain nombre d’articles de Girard en partie accessibles aux non-mathématiciens sur http://iml.univ-mrs.fr/~girard/Articles.html 
Pour une introduction non technique : Mosca (A.), « Jean-Yves Girard, le logicien scélérat », Critique, 2005, vol. 61, n.701, p. 743-75.

(2) Turing (A.), « Computing machinery and intelligence », Mind, Oxford University Press, 59, 236,‎ 1950, p.460. http://mind.oxfordjournals.org/content/LIX/236/433.full.pdf

(3) Clarke (A. C.), The Promise of Space, Harper and Row,‎ 1968. Pour les détails, cf. G. J. Myers, Software Reliability: Principles & Practice, p. 25.

(4) Cf. Le dîner des philosophes. http://fr.wikipedia.org/wiki/D%C3%AEner_des_philosophes

(5) Roussel (R.), Comment j’ai écrit certains de mes livres (1935), 10/18, 1963.

(6) Kittler (F.), « Code », in Fuller (M.), Software Studies – A Lexicon, MIT Press, 2005, p.46 (nous traduisons).

(7) Montfort (N.), « Obfuscated Code », in Fuller (M.), op. cit., p. 194 (nous traduisons).

(8) Cf. Parikka (J.), Insect Media, An archaeology of animals and technology (posthumanities), University of Minnesota Press, 2010, p.131.

(9) Cf. Mackenzie (A.), « Internationalization », in Lovink (G.), Rasch (M.), Unlike Us Reader, Social media monopolies and their alternatives, Institute of Network Cultures, 2013, et notamment ce passage, p.153 : By virtue of the notions of universality attached to numbering systems (such as decimal and binary), to computation (Universal Turing Machine), and to global technoculture itself, software seems virulently universal. When figures of otherness appear around software, they tend to be pathological. Pathological software forms such as viruses, worms, otherness appear around software, they tend to be pathological. Pathological software forms such as viruses, worms, trojan horses, or even bugs are one facet of otherness marked in software.

(10) Chez Bram Cohen (le créateur de BitTorrent), le bug devient de la merde. Cf. Cohen (B.), « Aesthetics of Debugging  thinking of turds as bugs and your home as your code« , Posted sur advogato.org le 18 Décembre 2000 à 00:58.

(11) Il faut apporter ici une nuance. Cf. Fuller (M.), Goffey (A.), Evil Media, The MIT Press, 2012.
Cf. aussi Lessig (L.), Code: An other laws of cyberspace, version 2.0, Basic Books, 2006. Lessig montre que l’Internet ouvert, non régulé, doit être compris comme un bug, une imperfection salutaire, y compris économiquement (p.48). D’un point de vue politique, citons encore cet extrait : Comme le dit John Perry Barlow , [les valeurs du cyberespace] sont les valeurs d’un certain bug programmé dans l’architecture du Net – un bug qui empêche le pouvoir du gouvernement de contrôler parfaitement le Net, même si elle ne désactive pas ce pouvoir entièrement (p.152) (nous traduisons). Selon nous, il s’agit encore d’un point de vue humain, qui pressent toutefois le point de vue de la machine établissant sa propre protohistoire.
Cf. encore la célèbre phrase d’Eric Raymond  : Many eyeballs make all bugs shallow (beaucoup de globes oculaires ramènent les bugs à la surface). Pour Raymond, le bug est constitutif de l’idée de communauté qui est la « solution » la plus efficace pour lutter contre lui. Le bug est ainsi indirectement à l’origine de toute l’open-culture, dont les répercussions politiques (nouvelles formes d’actions collectives), juridiques (creative commons, etc.), économiques (p2p, crowd-funding, -sourcing, etc.) sont immenses. Dans son ouvrage The Cathedral & the Bazaar: Musings on Linux and Open Source by an Accidental Revolutionary (O’Reilly, 2001, p.373), Raymond met en avant la méthode du bazar : Here, I think, is the core difference underlying the cathedral-builder and bazaar styles. (…) In the bazaar view (…), you assume that bugs are generally shallow phenomena — or, at least, that they turn shallow pretty quick when exposed to a thousand eager co-developers pounding on every single new release. Accordingly you release often in order to get more corrections, and as a beneficial side effect you have less to lose if an occasional botch gets out the door.
En esthétique, le bug a été l’objet de plusieurs études, dont, en français, la thèse d’Emmanuelle Grangier, Le bug, une esthétique de l’accident, Université de Paris 1, 2006.

(12) Cf. Zielinski (S.), Deep Time of the Media: Toward an Archæology of Hearing and Seeing by Technical Means, The MIT Press, 2008.

Carl Banks, IOCCC Flight Simulator, 1998. Ce programme obscur a remporté la même année le prix International Obfuscated C code Contest. Source : http://blog.aerojockey.com/post/iocccsim Photo: © Carl Banks

AGIR (ET NON PAS RÉAGIR)
un point de vue sur la conservation des arts numériques

Le caractère performatif et contextuel des œuvres numériques est indissociable de la matérialité de leurs supports. Dans ce cadre, comment conserver à la fois cette matérialité et le comportement de l’œuvre de la manière la plus authentique possible ? La règle d’or : anticiper.

Acquisition d'équipements de remplacement par le ZKM, série de SGI indigo, 2014.

Acquisition d’équipements de remplacement par le ZKM, série de SGI indigo, 2014. Photographies des réserves du ZKM où sont entreposées une vingtaine d’ordinateurs de type SGI Indigo destinés à la conservation des œuvres de sa collection permanente. Photo: Morgane Stricot / © ZKM, Karlsruhe.

Les matériels et logiciels dont les œuvres numériques sont tributaires pour véhiculer leur discours sont des supports indispensables, mais instables. L’obsolescence confère à la matérialité initiale de ces œuvres une date limite de conservation. La seule solution à long terme, désormais largement acquise, est la mise à jour continuelle et systématique de cet environnement technologique. Seulement les mises à jour matérielles entrainent bien souvent des remaniements logiciels et des modifications plus ou moins légères du comportement ou de l’esthétique des œuvres. C’est pourquoi ces stratégies de conservation préconisant le changement technologique comme seul moyen de préserver l’art numérique se mêlent à un intérêt historique, prônant une archéologie des média et une culture de la réparation. Ces deux approches sont tout à fait légitimes, et à mon sens, fortement complémentaires, tant qu’elles sont réalisées au bon moment, à la lumière d’une documentation solide.

Réagir, c’est souvent déjà trop tard
Avec comme ennemi n°1 un phénomène socio-économique incontrôlable, réagir n’est pas une option. Si on agit, ou plutôt on réagit, au moment où un problème survient, c’est qu’il est déjà trop tard. C’est pourquoi l’anticipation est un prérequis indispensable à la préservation des œuvres numériques.

À la question « quand doit-on agir ? », ma réponse est simple : quand tout va bien. C’est-à-dire lorsque l’œuvre fonctionne correctement dans son contexte technologique d’origine. C’est à ce moment-là que des mesures peuvent être entreprises en prévision des changements technologiques à venir. En effet l’œuvre dans sa version 1.0 nous fournit un point de référence nécessaire avant toute intervention de conservation ou d’actualisation. Sa documentation approfondie et son maintien, notamment grâce à de bonnes conditions de stockage et à la duplication, permettent d’envisager des scénarios d’actualisation et de comparer le comportement et l’esthétique de l’œuvre tout au long de ce processus. La perte de la version initiale consécutive à un temps d’attente trop long rend tout effort de conservation à long terme risqué en termes d’authenticité.

La duplication et le versioning, entrepris simultanément, permettent d’apporter des solutions de préservation viable à court et à long terme. Ces deux concepts de conservation se composent des différentes stratégies de conservation existantes à l’heure actuelle. Ces stratégies, souvent issues des sciences de l’information et de la communication, ont été théorisées et mises en pratique par des organisations comme le DOCAM (1), Forging the future (2) ou encore les projets Matters in Media Art de la Tate (3) et Digital Art Conservation du ZKM (4).

Dupliquez, dupliquez, il en restera quelque chose…
La façon la plus simple de préserver le comportement et l’esthétique d’une œuvre numérique est de conserver le plus longtemps possible son environnement technologique historique. C’est-à-dire de faire fonctionner son dispositif matériel original ou un dispositif identique (même époque, même modèle) avec l’environnement logiciel d’origine ou les données initiales.

TV-BOT 1.0 (2005) et TV-BOT 2.0 (2010), Marc Lee, 2011. Mise en regard de deux versions de l'œuvre TV-BOT lors de l'exposition Digital Art Conservation au ZKM | Medien Museum en 2011.

TV-BOT 1.0 (2005) et TV-BOT 2.0 (2010), Marc Lee, 2011. Mise en regard de deux versions de l’œuvre TV-BOT lors de l’exposition Digital Art Conservation au ZKM | Medien Museum en 2011. TV-BOT 1.0, étant aujourd’hui inaccessible dans sa version originale à cause de problème de compatibilité avec les navigateurs web actuels, a été exposée sous forme de documentation vidéo sur un écran cathodique aux côtés de sa version migrée. Cette version « figée » donnait alors à voir le comportement et l’esthétique d’origine de l’œuvre. Photo: ONUK / © ZKM, Karlsruhe.

Il existe plusieurs stratégies et pratiques visant à prolonger la durée de vie des œuvres numériques dans leur contexte technologique historique : la réparation du dispositif avec l’aide de pièces détachées, le remplacement par un modèle identique, l’inspection régulière de l’état de marche, la sauvegarde redondante des données et enfin l’entreposage et la manipulation dans de bonnes conditions.

La duplication est une méthode de conservation par anticipation combinant toutes ces stratégies. Il s’agit ici d’implémenter la copie des données propres à l’œuvre réalisée lors des sauvegardes (dans leur format d’origine (5)) sur les équipements de remplacement (ce qui implique d’avoir acquis ces équipements avant leur indisponibilité sur le marché). Tout ceci dans le but de dupliquer X fois l’œuvre dans son ensemble et ainsi créer plusieurs exemplaires identiques et fonctionnels.

Avoir plusieurs exemplaires fonctionnels permet de gagner du temps pour d’éventuelles mesures d’actualisation, d’avoir une connaissance documentaire et technologique approfondie du dispositif et du comportement de l’œuvre et enfin d’éviter des problèmes d’incompatibilité en testant les copies et données avec le matériel qui leur est dévolu.

…enfin, pas à long terme…
La duplication ne permet pas toutefois de conserver une œuvre à long terme puisque même si un entreposage effectué dans les meilleures conditions possible prolonge la durée de vie des composants, ils finiront fatalement par être défectueux et introuvables sur le marché. C’est pourquoi le versioning peut être envisagé.

Le versioning (6) consiste en la création d’une ou plusieurs versions mises à jour de l’œuvre. C’est-à-dire tous les exemplaires résultant de l’actualisation de l’environnement technologique de l’œuvre, se référant à l’exemplaire 1.0. Ce concept de conservation regroupe un panel de stratégies allant de la migration sans changement discernable du comportement de l’œuvre jusqu’à la réinterprétation de l’idée qui la sous-tend.

 

Diagramme Digitalis (diagramme méthodologique de la préservation d’objets numériques complexes), 2014.

Diagramme Digitalis (diagramme méthodologique de la préservation d’objets numériques complexes), 2014. Le projet Digitalis a commencé en 2012, dans le cadre du projet de fin d’étude de Morgane Stricot à l’École Supérieure d’Art d’Avignon. Ce diagramme est accessible en trois langues (français, allemand et anglais). Photo: Morgane Stricot / D.R.

Quelle que soit la stratégie choisie, on apportera ici une modification plus ou moins sévère du code source, des données ou des artefacts de représentation. La migration, la virtualisation, l’émulation et le portage n’apportent la plupart du temps qu’une actualisation du « contenant » alors qu’avec la réinterprétation on passe à l’actualisation du « contenu », c’est-à-dire de l’idée, à l’écosystème médiatique contemporain à chaque nouvelle exposition. Le versioning est une manière d’accompagner l’évolution naturelle du concept de l’œuvre.

Certains comportements sont conditionnés par les matériels historiques et d’autres comportent des éléments contextuels, c’est pourquoi une bonne documentation et surtout une collaboration active entre domaines de compétences et le ou les artistes sont primordiaux afin de définir une limite claire entre évolution naturelle et amélioration technique ou esthétique.

Une réserve cependant. Une actualisation du « contenant » apportera souvent des modifications du comportement et de l’esthétique de l’œuvre, même si bien souvent, c’est de manière bénéfique ou du moins contrôlable (8). Une utilisation excessive et arbitraire de la réinterprétation donnerait alors lieu à un work-in-progress sans fin, ne laissant plus de place à l’historicité et à la chronologie et surtout empêchant ainsi les futures générations d’artistes numériques de s’inscrire dans le paysage technologique qui leur est propre.

Digitalis, un diagramme pour agir
Il est clair qu’il n’existe pas une méthode unique applicable à tous les cas, mais plutôt que chaque cas vient nourrir des méthodes différentes. Fort de ce constat, j’ai mis sur pied un diagramme méthodologique expérimental en ligne, appelé Digitalis (7). Normatif, il donne une vue d’ensemble des phases contribuant à la préservation d’objets numériques complexes en milieu muséal. Il a pour principal but d’aider les différents acteurs à définir les paramètres d’instanciation d’une œuvre afin de prendre une décision qui préserve son comportement et donc son authenticité. Il leur permet également de se poser les bonnes questions afin de maintenir cette authenticité malgré les divers changements technologiques.

Enfin, en étant le plus objectif possible, il aide à comprendre les potentiels risques et bénéfices de chaque stratégie de conservation, afin d’en choisir une en toute connaissance de cause. Ce diagramme tente d’apporter une approche plus scientifique et systématique de la conservation de l’art numérique. Sa forme circulaire illustre la nature proactive de la conservation : aucune solution n’est durable, il faut en permanence agir. Digitalis fait d’ailleurs l’objet d’une amélioration et d’une adaptation constante liée à l’évolution des pratiques numériques. Toute participation est la bienvenue.

Morgane Stricot
conservateur-restaurateur, ZKM (Zentrum für Kunst und Medientechnologie), Karlsruhe, Allemagne.

publié dans MCD#75, « Archéologie des médias », septembre / novembre 2014

(1) L’Alliance de recherche DOCAM (Documentation et Conservation du patrimoine des Arts Médiatiques) a été initiée par la Fondation Daniel Langlois pour l’art, la science et la technologie (FDL) en 2005. www.docam.ca/ (consulté le 23 février 2014)

(2) Forging the future : nouveaux outils pour la préservation des médias variables. http://forging-the-future.net/ (consulté le 23 février 2014)

(3) Ce projet collaboratif, lancé en 2005 par le New Art Trust (NAT), le Museum of Modern Art (MoMA), le San Francisco Museum of Modern Art (SFMOMA) et la Tate, a pour but d’aider ceux qui collectent et conservent les œuvres à obsolescence technologique (time-based media artworks). www.tate.org.uk/about/projects/matters-media-art (consulté le 09 mars 2014)

(4) ZKM, Zentrum für Kunst und Medientechnologie Karlsruhe. Ce projet de recherche (2010-2012) a été consacré à l’exploration de stratégies de conservation de l’art numérique. www02.zkm.de/digitalartconservation/ (consulté le 23 février 2014)

(5) Image disque (système d’exploitation, programmes, données et pilotes), CD, DVD, cassette ou cartouche de jeux vidéo par exemple.

(6) Terme habituellement utilisé en développement logiciel. La définition est ici étendue à l’environnement matériel de l’œuvre.

(7) Digitalis, diagramme méthodologique de la préservation d’objets numériques complexes. http://digitalis.litchio.com

(8) Par exemple, le passage d’un vidéoprojecteur CRT à un vidéoprojecteur HD apporte bien souvent une meilleure lisibilité de l’artefact de représentation (luminosité, contraste et rendu des couleurs). Autre exemple, l’ajout d’une portion de code permettra de pallier au problème de vitesse lors d’une migration vers un ordinateur de plus forte puissance.

 

Emblématique de la viralité, le LOLcat appartient pourtant à l’histoire des médias. Aujourd’hui, contrairement à l’opinion reçue, le LOLcat représente un enjeu économique, politique et artistique.

L’origine du LOLcat est connue pour appartenir aux mèmes créés et distribués massivement sur les plateformes UGC du Web 2.0, notamment sur le forum anonyme 4chan à partir de 2005 lors des s/c/aturdays. Ce sont des photographies de chats légendées en police blanche, sans sérif, dans un anglais chaildizé pauvre perverti.

À fouiller, on retrace aussi des ancêtres pré-digitaux chez les Brighton Cats de l’Anglais Harry Pointer dans les années 1870 — une série de 200 cartes postales photographiques de chats avec des poses anthropomorphiques titrées dialoguées — et chez l’Américain Harry Whittier Frees au début du XXème siècle. The Boxing Cats, un film de 23 secondes réalisé en 1894 par W.L. Dickinson au studio Black Maria de Thomas Edison figurant deux chats qui boxent avec des gants arbitrés par le professeur Henry Welton, vient par ailleurs d’être transposé en GIF.

Au Moyen-Âge, les chats sont le plus souvent représentés sous la forme de marginalia, en marge des manuscrits pour distraire le lecteur. Au XVIème siècle lors d’une fête religieuse à Bruxelles, un ours joue de l’orgue à chats, chaque touche étant reliée à la queue d’un félin à la tessiture particulière. Trevor Plagen, en exposant cette année son projet The Last Pictures au festival Transmediale à Berlin, dit avoir fait embarquer éternellement, tout au moins pour des billions d’années, une image de cet orgue dans un satellite en orbite géostationnaire parmi 100 autres photographies en silicium qui ne seront peut-être jamais trouvées.

Orgue à Chats. Photo: D.R. (domaine public). Source : http://fr.wikipedia.org/wiki/Orgue_%C3%A0_chats

A/FK
Et plus intentionnel que Hermann Diephuis fonçant sur un mur de cartons au sein de la pièce chorégraphique de Mathilde Monnier Les lieux de là en 1999 au CCN de Montpellier, il y a Muriel Piqué lors du solo VU(E) au Carré d’art de Nîmes en 2010 qui essaie de se caler dans un carton trop petit pour elle; tel Maru, l’enrobé Scottish Fold japonais connu entre autres pour glisser pattes écartées à l’intérieur d’emballages de yaourts Diet.

Il y a la minette bleue de Sonia Amirouche qui écrit-performe souvent avec moi au clavier en réseau pré-2.0. Il y a encore le chœur de LOLcats composé avec Gaëtan Rusquet pour Based on an almost true story au festival européen de performance Trouble 2013 à Bruxelles avec Leen, Lune, Kevin et Valentine. Il y a aussi les prouesses transposées de Maru et Shirone et l’inauguration d’un mini-cinéma croquettes avec un groupe d’étudiantes à l’École Supérieure d’Art d’Avignon…

En dérives artistiques en ligne, à noter  : la vidéo de la chatte pianiste Nora diffusée lors du catcerto de l’orchestre de chambre lituanien Klaipéda dirigé par Mindaugas Piecaitis en 2009, la recomposition par Cory Arcangel  assemblant des samples de chats au piano pour recomposer l’Opus 11 n° 1 d’Arnold Schoenberg, ce siamois déguisé en requin sur un aspirateur robot Roomba suivi par un caneton et rejoint par un chien camouflé en requin-marteau de la chaîne Youtube Helenspets, la brochette de minets de Shironekoshiro sur lesquels il empile des mandarines, boîtes de conserve, fleur…, une tendresse pour tous les félins parlant, aboyant ou jouant avec des écrans des platines thérémines…, et un coup de cœur pour cet artiste qui s’échappe à plusieurs reprises de sa cage chez un vétérinaire à Marseille.

Wikipédia consacre un chapitre à la ronron-thérapie. Des enfants font la lecture de romans à des chats dans un refuge de Pennsylvanie pour améliorer leurs compétences en littérature et tranquilliser les animaux. Lors de l’étude intitulée Le pouvoir de Kawaii, des chercheurs de l’Université d’Hiroshima concluent que regarder des images mignonnes favorise la concentration et renforce l’attention visuelle. Ils mentionnent qu’à l’avenir, les mignonneries pourraient être utilisées pour déclencher des émotions susceptibles de développer des tendances comportementales de prudence et minutie dans des situations spécifiques telles que la conduite et le travail de bureau.

Sca(t)n. Modèle scannée : Wanda, juin 2013. Commande de Lucille Calmel à Gaëtan Rusquet. Photo : D.R.

Le business LOLcat
À son origine, le LOLcat se situe dans une perspective de l’économie du don, de l’acte créatif jetable, de la perte de temps, de ce qui rend la vie plus facile. Ce qui fait rire fait signe d’appartenance. Néanmoins, il peut être pertinent de faire un pendant critique à ce qui vient d’être dit avec les articles « Candy Crush Rehab » de Beatriz Preciado dans Libération et « Beware of cupcake fascism » de Tom Whyman dans The Guardian qui traitent respectivement de la masturbation de l’écran du capitalisme cognitif libéral, et d’un mouvement maladivement gentil qui satisfait le désir d’une population infantilisée de se cacher du monde tout en imposant des valeurs bourgeoises.

La clé du succès de Candy Crush réside justement dans ses défauts : le caractère enfantin et inoffensif (il n’y a ni violence, ni sexe), l’éternel recommencement (jusqu’à 410 niveaux) ainsi que l’absence de contenus culturels spécifiques pouvant susciter adhésion ou rejet. Chasteté, idiotie et gratuité sont les conditions de possibilités de la globalisation de la dépendance. If a fascist Reich was to be established anywhere today, I believe it would necessarily have to exchange iron eagles for fluffy kittens, swap jackboots for Converse, and the epic drama of Wagnerian horns for mumbled ditties on ukuleles.

Plus célèbres que les interprètes souvent anonymes des scans, selfies (avec l’appli Snapcat) et pornos photobombés, les héros des vidéos cliquées des millions de fois sur YouTube ont dorénavant leurs festivals et expositions : au Walker Art Center de Minneapolis depuis août 2012, à la Framers Gallery à Londres en janvier 2013, au Catdance Film Festival à Sundance dans l’Utah en 2014… En France, le curateur Éric Maillet a proposé en juin dernier When Cattitudes Become Form, une exposition chez 3/SOME à Cergy, à destination des chats.

Depuis son invitation au South by Southwest Festival à Austin au Texas, Grumpy la chatte grincheuse connue sur les réseaux, ambassadrice de Friskies, égérie de multiples produits dérivés, est estimée par le New York Magazine à un million de dollars. Ben Lashes, son manager, a déjà géré le succès de plusieurs stars du Web comme Keyboard Cat ou Nyan Cat.

Parmi un groupe de financiers et étudiants spécialisés, c’est Orlando, un minet rouquin, qui gagne le concours en bourse lancé par l’hebdomadaire du Guardian, The Observer, en 2012, défendant ainsi l’idée de l’économiste Burton Malkiel selon laquelle les prix des actions évoluent de façon aléatoire, rendant les marchés boursiers entièrement imprévisibles.

Sca(t)n. Modèle scannée : Wanda, juin 2013. Commande de Lucille Calmel à Gaëtan Rusquet. Photo : D.R.

Quand les « cute cats » servent les activistes
NBC News révèle d’après Snowden que la NSA et le GCHQ (service du renseignement électronique du gouvernement britannique) collectent les données non cryptées des vues YouTube, likes Facebook, visites sur Blogger… afin de, selon ces agences, chercher des données, connexions et tendances intéressantes. Les ingénieurs de Google affirment qu’ils ont conçu un réseau informatique capable d’analyser, de classer et d’apprendre lui-même à reconnaître le contenu des images.

Ainsi, le « réseau neuronal » a été nourri de 10 millions d’images à partir de vignettes vidéo YouTube et — sans qu’on nous dise comment — a créé son propre concept de chat. La théorie « cute cat » de l’activisme numérique développée par Ethan Zuckerman en 2008 postule que la plupart des gens ne sont pas intéressés par l’activisme, qu’ils préfèrent utiliser le web pour des activités banales, y compris la pornographie et les LOLcats.

En parallèle, les plateformes comme Facebook, Flickr, Blogger, Twitter… sont très utiles aux activistes des mouvements sociaux qui peuvent manquer de ressources pour en développer eux-mêmes. D’autre part, les activistes se trouvent plus à l’abri des représailles des gouvernements que s’ils utilisaient une plateforme spécialement dédiée. En effet, fermer une plateforme populaire provoque généralement un tollé public général beaucoup plus conséquent que s’il s’agit de fermer d’obscurs médias sociaux. Or, quand la censure qui s’exerce pour des raisons politiques aboutit à la fermeture ou au blocage de ces plateformes mondiales, elle s’exerce aussi pour les « cute cats » et toutes les autres activités banales, ce qui ne manque pas d’être contre-productif.

The likes of Brother Cream Cat, un projet d’art en réseau de Helen Pritchard et Winnie Soon, est une expérience en direct avec un chat devenu célèbre sur Facebook. Brother Cream qui habite dans un magasin à Hong Kong s’était perdu en 2011. Grâce à des milliers de « likes » de ses fans, il a été retrouvé et il a depuis attiré de nombreux clients-visiteurs dans l’épicerie. Après l’installation sur son navigateur du module complémentaire spécialement créé pour le projet, l’utilisateur ne peut plus voir sa page Facebook habituelle : la plupart des images sont remplacées (sans la permission du réseau social) par les dernières traces en ligne de Brother Cream. Cette œuvre à la fois politique et artistique est révélatrice : la notion de vivant sur le Net comprend donc à la fois des participants humains et non humains, dans ce dernier cas des machines programmées et des animaux.

Lucille Calmel
artiste et professeur à l’École Supérieure d’Art d’Avignon
publié dans MCD #75, « Archéologie des média », sept-nov. 2014

Exposer des « zombies »

Pourquoi le Net Art, l’art du réseau, devrait se séparer de l’art contemporain avant de l’épouser. Exposer, médier et conserver le Net Art sont réductibles à un unique problème : son éphémérité. La question est de savoir s’il faut sauver quelque chose de cet art et, si oui, ce qu’il faut en sauver. 

Les Net artistes voient dans l’Internet la possibilité de montrer leurs travaux sans passer par la médiation du monde de l’art traditionnel. Par définition, le Net Art fusionne les média de la création et de l’exposition — qui est dans le même temps un médium politique, économique et culturel : l’œuvre réalisée avec le réseau est montrée sur le réseau et pour le réseau (1). Dès son origine, l’Internet est, pour les Net artistes, synonyme de liberté d’expression, de relation directe au public, d’indépendance à l’égard des mécanismes du marché de l’art, de renversement de la position de l’auteur, d’actions communes, collectives et plus ou moins anonymes… La mémoire du Net Art se confond alors avec les cultures numériques. Ainsi le Net Art s’est-il construit contre l’institution de l’art — qui le lui a bien rendu (2).

Capture d’écran de la vidéo de présentation de l’Exposition net.art / Painters and Poets à Ljubljana (19 juin – 31 août 2014) (curateurs : Vuk Ćosić & Alenka Gregorič). Photo : D.R

Parallèlement, dès les débuts du Net Art, les artistes et les théoriciens ont cherché à montrer l’art du réseau ailleurs que sur l’Internet. Il existe quelques stratégies remarquablement bien pensées, comme les webjays d’Anne Roquigny, les  speedshows du F.A.T. Lab, ou l’exposition récente net.art / Painters and Poets à Ljubljana (Vuk Ćosić & Alenka Gregorič) qui résume à elle seule les différentes stratégies  d’exposition du Net Art : accès aux œuvres via des postes informatiques (Documenta X, 1997), routeurs WiFi (XPO Gallery, 2014), encadrements de captures de sites de Net Art (Daniel Garcia Andujar, 1999 et Per Platou, Written in Stone – a net.art archaeology, Oslo, 2003), vidéo et installations… Au-delà d’un certain désir d’aller porter le Net Art dans des milieux qui en ignorent tout, ces dernières traductions de l’art du réseau dans l’exposition travaillent à son intégration dans l’art contemporain.

Net Art et art contemporain
Or, le Net Art a-t-il son avenir dans l’art contemporain ? C’est en tout cas la stratégie retenue par bon nombre d’artistes du réseau aujourd’hui regroupés sous le nom d’art post-Internet (3). Contrairement au Net Art qui fonde sa pratique sur le flux, l’art Post-Internet, partant de l’idée que l’Internet irradie tous les autres media, fige son flux temporel dans des objets conformes au marché traditionnel de l’art (photographies, sculptures, installations, vidéo, mais aussi URL, etc.). L’artiste bénéficie ainsi des avantages liés au monde de l’art : une rémunération en tant qu’auteur; une visibilité plus efficace que s’il était resté au sein d’un réseau noyé par les multiples productions des artistes professionnels et amateurs du réseau; l’illusion de voir son nom peut-être un jour inscrit dans le panthéon des artistes immortels. Mais que faire alors de ces œuvres restées au sein du flux et en dehors de tout objet ? Faut-il donc qu’elles courent elles aussi après le white cube ?

L’avenir du Net Art : produits dérivés ou arts dans l’espace public ?
Les deux forces du Net Art sont aussi ses faiblesses. Il est éphémère, en raison de l’obsolescence du hardware et du software (logiciels, navigateurs, etc.). D’autre part, son accès est indifférencié (il ne serait rien sans la « culture ouverte »). En résumé, deux bêtes noires de l’art contemporain. C’est pour cette raison que le Net Art est devenu post-Internet, qu’il a commencé à produire des objets à tirage limité (des impressions, des routeurs par exemple) ou des produits dérivés, dans le droit fil du capitalisme culturel cinématographique. Cette pratique conduit naturellement à la signature, aux droits d’auteur, à une relation au public médiée par le marché… Ne peut-on pas imaginer un autre monde de l’art qui corresponde enfin au Net Art, à d’autres stratégies, qui ne l’aurait pas contraint à sortir du réseau ?

Imaginons par exemple que l’argent de l’art considère la création, non comme un investissement, mais comme une perte, à l’image de l’éphémérité et de la gratuité du Net Art. Avec ce mode de consommation, la dépense disparaît en même temps que sa consommation culturelle. C’est d’une certaine manière ce qui advient lorsque l’on va au théâtre ou quand on assiste à une performance. De ce à quoi nous avons assisté, nous ne conservons que le souvenir. Il faudrait alors que, partout où le théâtre est subventionné par les puissances publiques, ces dernières financent aussi l’Art Internet, moins sans doute du côté du cinéma que du côté d’un art qui, sous le nom d’un art de l’espace public, regrouperait par exemple les arts de la rue et l’art du réseau. Dans cet art, la jouissance esthétique et la puissance symbolique liées à l’œuvre ne résident pas dans la possession et la pérennisation, mais dans le don de l’œuvre, sa perte ou son recyclage.

Capture d’écran de la vidéo de présentation de l’Exposition net.art / Painters and Poets à Ljubljana (19 juin – 31 août 2014) (curateurs : Vuk Ćosić & Alenka Gregorič). Photo : D.R

Faut-il sauver le Net Art et, si oui, comment ?
Ce qui fait œuvre dans le monde de l’art contemporain de plus en plus saturé d’artistes et d’objets n’est pas seulement le moment de son instauration ni le moment de sa monstration, ni encore son achat, mais surtout la décision de sa conservation et de sa restauration. Parmi les différents moyens de conservation des œuvres numériques, la ré-interprétation, défendue par « la théorie des médias variables », qui consiste à faire passer une œuvre de son médium obsolète à un médium actuel, permet à l’œuvre d’être toujours « à jour » pour les besoins de l’exposition et des collections. Cette théorie dualiste (car il lui faut distinguer le matériel de l’immatériel de l’œuvre) entre en contradiction avec sa visée. Car si l’on peut vouloir une métempsycose de l’œuvre, il n’en existe pas à ce jour de possible pour les artistes. Mortels, ils ne pourront éternellement accompagner les réinterprétations, à moins qu’on ne les dépossède de leur œuvre après leur mort…

Mais, au-delà de cela, si cette méthode peut s’avérer pertinente pour des installations (4), elle n’a guère de sens concernant le Net Art. Les écritures du Net Art tirent leurs effets esthétiques de leur relation avec leur écosystème médiatique — technologique et industriel. Durant les dix premières années du Net Art, tel hack répondait à l’émergence d’une innovation industrielle (cf. uebermorgen.com), telle action à la bulle Internet (cf. etoy.com), telle production au cyberféminisme (cf. VNS Matrix)… Ces écosystèmes ayant partiellement disparu, une réinterprétation de ces œuvres nécessiterait d’en faire des entièrement nouvelles. Enfin, les productions de Net Art demeurent à l’image de leur médium : elles sont en réseau. S’il faut les sauver, ce n’est pas individuellement, selon le couple traditionnel conserver/montrer, mais comme les éléments d’un écosystème, dont l’institutionnalisation de la mémoire garantira leur pérennité.

L’Internet est une succession de média morts. L’obsolescence y frappe aussi vite que l’émergence. En quelques années, ses productions deviennent des zombies illisibles, qui ne laissent derrière eux que traces, récits et documents épars. S’il faut pérenniser les productions du Net Art, ce n’est pas en les traitant comme des œuvres d’art contemporain — en les restaurant tous les dix-huit mois, ou en les travestissant pour l’argent de l’art —, mais en intégrant ce qu’il y a en elle de proprement numérique : elles sont des écritures éphémères, des textes écrits en code-machine et en code-réseau (nous voici ici encore proche du théâtre). Cela revient à accepter un jour l’illisibilité du texte et la destruction de sa machine de lecture. Cela revient à penser le désir d’éternité autrement.

Quand le laboratoire PAMAL propose l’idée d’un second original conservant la machine d’origine et le code-machine de l’œuvre — devenue archive — accompagnée d’une documentation (entretien de l’artiste, témoignages sur les usages, etc.) (5), c’est pour accueillir et non lutter contre l’éphémérité de l’œuvre. Il reste maintenant à leur trouver un cimetière digne, visitable par le plus grand nombre. Ce ne sera sans doute pas un musée d’art contemporain — car pourquoi déciderait-il de stocker et de préserver des textes et des machines de lecture au regard de leur valeur dans le marché de l’art. Ne serait-il pas plus cohérent que ce soit un lieu déjà en charge des archives de l’écrit ?

Emmanuel Guez
(artiste et chercheur)
publié dans MCD #75, « Archéologie des médias », sept.-nov. 2014

(1) Laforet (A.), Le net art au musée. Stratégies de conservation des œuvres en ligne, L>P, Questions théoriques, 2011.
(2) Cf. Lambert (N.), « Internet Art versus the institutions of art », in Art and the Internet, Black Dog Publishing, 2013.
(3) Cf. Olson (M.), « Post-Internet, Art after the Internet » (2011), in Art and the Internet, op.cit.
(4) Cf. L’exposition « Seeing Double : Emulation in theory and practice », Ippolito / Jones, N-Y-C, 2004.
(5) Cf. Broye (L.), « Projet H.A.L 8999, Save our bit ! », dans ce numéro.

la mémoire des arts de la scène au temps du numérique

Documenter les œuvres scéniques et leur processus de création est un enjeu majeur pour les équipes artistiques et les historiens du théâtre. Rekall répond à cette demande qui s’est accrue avec le développement des dispositifs technologiques numériques dans les arts de la scène.

Rekall, capture d'écran.

Rekall, capture d’écran. Photo: © Clarisse Bardiot.

La création numérique et la création scénique  face à leur propre oubli.
Le numérique et les arts de la scène ont au moins un point commun : ils engendrent des documents pour le premier, des œuvres pour le second, qui sont éphémères. L’obsolescence programmée des technologies numériques est le grand paradoxe des campagnes de numérisation — et de conservation — du patrimoine. La perspective d’un « Digital Dark Age », de l’oubli numérique, vaste trou noir de la mémoire contemporaine, rejoint le statut fugitif, volatil du spectacle vivant. Du point de vue de la mémoire des arts de la scène, les technologies numériques font surgir différentes questions : comment s’approprier les archives, comment mémoriser un parcours au sein d’un corpus de documents ? Que peuvent-elles apporter par rapport à d’autres approches comme la notation ou la captation vidéo ? Quel statut accorder aux documents numériques produits pendant le processus de création ? Comment documenter les dispositifs technologiques utilisés dans les spectacles, ne serait-ce que dans le cadre des régies son et lumière ? En quelques mots : quelle(s) mémoire(s) des arts de la scène les technologies numériques proposent-elles ?

Le chantier est vaste, les expériences nombreuses et souvent en cours de développement. Leur prolifération relève d’une préoccupation grandissante pour la mémoire, pour les traces, mais aussi pour la transmission et la compréhension du processus de création. Cette effervescence se propage auprès des institutions en charge de la mémoire du théâtre, des lieux qui mettent à l’affiche les « reprises » d’œuvres anciennes (reenacment), mais aussi et surtout des artistes, des chercheurs, du public. Depuis le milieu des années 2000, les initiatives de documentation des arts de la scène avec des technologies numériques se multiplient : capture du mouvement à même le corps des danseurs, bases de données consultables sur Internet, outils d’annotation vidéo des captations et des répétitions, génération de partitions, etc. Des outils spécifiques mis à disposition sur des plateformes en ligne permettent d’analyser les archives, de les confronter, de tisser des liens sémantiques entre de multiples documents. Cet aspect est au cœur d’un programme européen, ECLAP (e-library for performing arts) (1).

ECLAP réunit de nombreuses institutions européennes consacrées aux arts de la scène, contribue à la numérisation de leurs fonds (aujourd’hui plus d’un million de documents, reliés à la bibliothèque numérique en ligne Europeana) et propose une série d’outils qui permettent à chacun d’enregistrer son propre parcours et d’annoter les documents sélectionnés via l’application MyStoryPlayer. Une autre initiative, en Angleterre, propose de créer des carnets de notes personnalisés à partir d’un fonds d’archives disponible sur Internet : le Digital Dance Archives réunit différentes collections du National Resource Centre for Dance (NRCD) (2), dont la collection Laban, ainsi que le fonds d’archives de la chorégraphe Siobhan Davies. Des vidéos, mais aussi des photographies, des dessins, etc. sont accessibles au public. Les documents retenus par chaque personne peuvent être annotés, classés et partagés.

Parmi les expériences menées, nombreuses sont le fait de chorégraphes, ou encore d’équipes de recherches associées à un artiste. Citons, de manière non exhaustive : Emio Greco, Siobhan Davies, Wayne McGregor, Steve Paxton, Pina Bausch (via le programme d’archivage de sa fondation), Jan Fabre, Deborah Hay, Bebe Miller, Thomas Hauert. Et bien sûr William Forsythe dont les projets pionniers sont devenus des références incontournables (3) : Improvisation Technologies, Synchronous Objects et Motion Bank embrassent une réflexion conduite sur vingt années, de 1993 à aujourd’hui (4). Quelques personnes, tels le chercheur Scott deLahunta ou encore le concepteur multimédia Chris Ziegler circulent d’un projet à l’autre, disséminant réflexions, expérimentations et bonnes pratiques. Au-delà de la diversité des partis-pris, ces projets ont pour point commun la création de ressources chorégraphiques du point de vue de l’artiste, avec la prise en compte de son processus de création. Autrement dit, l’objectif n’est pas de trouver un modèle unique pour documenter toutes les démarches artistiques, mais de partir de la pratique propre à chaque chorégraphe pour développer une documentation spécifique.

Synchronous objects for One Flat Thing, reproduced by William Forsythe, site Internet, 2009, objet « The Dance », capture d’écran. Photo: D.R.

Conserver les archives pour transmettre et recycler.
Autre préoccupation partagée : il ne s’agit pas tant de documenter pour laisser une trace que de documenter pour transmettre la danse vers d’autres danseurs, voire engendrer de nouvelles œuvres. Comme le constate Scott deLahunta, ces artistes [Siobhan Davies, Emio Greco, Wayne McGregor et William Forsythe] et les organismes qui ont été construits autour d’eux ont commencé à penser, ou à repenser dans certains cas, comment créer, gérer et disséminer leurs ressources chorégraphiques. L’objectif de ces nouvelles considérations oscille entre la constitution d’une archive et la réutilisation de ces ressources dans leur œuvre (5). D’une logique de conservation à un principe de recyclage, la temporalité de l’archive est remise en question : au catalogage, à la fixation des traces d’une œuvre qui a eu lieu (traces qui privilégient souvent les documents écrits), on substitue la collecte d’éléments très divers pour être à même de les réinjecter dans le processus de création.

Ce faisant, la notion même d’archive est à reconsidérer. Dans un article intitulé What if This Were an Archive  ? (6), la spécialiste de danse contemporaine Maaike Bleeker revient sur Double Skin/Double Mind, une installation interactive dont l’objectif est de permettre au chorégraphe Emio Greco de transmettre à des danseurs les qualités de mouvement propre à son vocabulaire. Un écran vidéo montre Emio Greco expliquant et interprétant des mouvements. Dans l’espace de l’installation, le danseur les apprend en les reproduisant. Un système de reconnaissance lui permet d’avoir en temps réel un retour visuel et sonore sur la qualité de sa prestation. Pour Maaike Bleeker, si cette installation peut transmettre une compréhension de la logique des modalités du mouvement chez Greco, peut-elle également transmettre ses chorégraphies ? Qu’est-ce que cela signifierait ? Et si cela était une archive ? (7). Le numérique fait surgir de nouveaux types de documents, dont la nomenclature même est problématique. Comment nommer l’archive-installation d’Emio Greco ? De quoi est-elle la trace ? De la danse, du mouvement, du processus de création, de la pédagogie ?

Si l’on en revient à des pratiques plus largement partagées par les metteurs en scène et chorégraphes contemporains, force est de constater qu’au-delà de certains discours érigeant le plateau en sanctuaire anti-numérique, une partie du processus de création — plus ou moins importante, plus ou moins avérée et revendiquée — a lieu via les ordinateurs et les réseaux : échanges de mails, traitements de texte, rendez-vous à distance via des dispositifs de téléprésence (voix sur IP), images et vidéos numériques pour rassembler des idées, des pistes de travail, usage des réseaux de partages d’images pour mettre à disposition des documents visuels pour l’ensemble de la compagnie, croquis effectués sur tablette numérique, etc. Au-delà du processus, les œuvres elles-mêmes sont concernées : quasiment toutes les régies son et lumière sont numériques (et l’arrivée de l’éclairage à leds dans les théâtres va encore amplifier le phénomène); de nombreux spectacles font appel à des procédés de régies vidéo (numérique), à des capteurs, voire à des dispositifs plus sophistiqués comme la création de programmes informatiques spécifiques. Dans ce contexte, l’obsolescence rapide des technologies devient extrêmement problématique, à la fois pour les artistes qui doivent pouvoir continuer à faire tourner leurs spectacles, et pour les chercheurs qui souhaitent en analyser les processus de création. Les documents numériques sont alors des traces essentielles pour retracer l’histoire des arts de la scène à l’époque contemporaine.

Rekall, un environnement open source pour documenter, analyser les processus de création et simplifier la reprise des œuvres.
Ces différentes interrogations sont à l’origine d’un projet que je conduis actuellement, en étroite collaboration avec Guillaume Marais, Guillaume Jacquemin et Thierry Coduys (8). La plupart des exemples évoqués ci-dessus ont donné lieu à la création d’interfaces spécifiques à une seule œuvre, non généralisables à d’autres spectacles et qui plus est dans des formats propriétaires (Flash en particulier). Les travaux menés ont engendré des applications (sites Internet, DVD-Rom) et non des programmes. D’où une réflexion menée sur la création d’un logiciel qui puisse s’appliquer au plus grand nombre d’œuvres possible, et qui puisse s’adresser autant aux artistes, à leurs équipes techniques qu’aux chercheurs, aux fonds d’archives et au grand public. C’est ainsi qu’est né Rekall, un environnement open source pour documenter, analyser les processus de création et simplifier la reprise des œuvres.

Bertha Bermudez dans l'installation interactive Double Skin/Double Mind.

Bertha Bermudez dans l’installation interactive Double Skin/Double Mind. Photo: © Thomas Lenden.

Le fonctionnement de Rekall s’articule essentiellement autour des documents de création : croquis de scénographies, commentaires audio, descriptions d’éléments techniques, vidéos, textes, carnets de notes, conduites techniques, patches, captures d’écran de logiciels spécifiques, partitions, photographies, mails… Il permet de structurer plusieurs strates temporelles : celle du processus de création (éclairer par exemple les recherches menées pour tel aspect du spectacle), de la représentation elle-même (voire de ses différentes versions dans le cas d’un work in progress), et de sa réception (par exemple en ajoutant des commentaires audio de la compagnie sur son propre travail, ou bien de spectateurs, ou encore la revue de presse).

L’accumulation des documents est un élément clé du fonctionnement de Rekall. En effet, c’est en analysant ces documents, en les mettant en relation les uns avec les autres et en les plaçant dans des contextes soigneusement choisis (multidimensionnels, temporels ou non) que Rekall parvient peu à peu à révéler des caractéristiques spécifiques à une œuvre donnée. Cette structure ouvre alors un spectre de possibilités analytiques extrêmement important. En partant du principe qu’un processus de création peut être analysé en grande partie par les documents de création collectés (devenus documents d’exploitation pour certains), Rekall se base sur les métadonnées présentes dans chacun de ces documents pour en extraire des informations cruciales (auteur, date de création, lieu de création, mot-clé, etc.), qui sont ensuite utilisées par les outils d’analyse et de représentation de l’information, afin de révéler des comportements créatifs, des usages ou d’autres informations insoupçonnées.

Préserver les composantes technologiques d’un spectacle
Rekall permet de rendre compte des technologies utilisées dans un spectacle et d’en offrir une description pour éventuellement proposer une alternative avec d’autres composantes. Il nous semble en effet primordial de garder la trace la plus précise possible des composantes technologiques d’une œuvre, parce qu’elles sont également porteuses de dimensions esthétiques et historiques, tout en offrant la possibilité de décrire les effets de ces mêmes composantes, dans la lignée de la réflexion sur les médias variables (9). Même si Rekall répond en partie au problème d’obsolescence des technologies (nomenclatures claires, mises à jour des outils embarqués, etc.), il est indispensable que certaines actions de préservation soient réalisées par l’utilisateur. Rekall simplifie cette préservation active en alertant par exemple lorsque la pérennité d’un document est mise en danger par la dernière mise à jour de son logiciel d’exploitation.

Rekall est actuellement en version bêta. La collaboration avec des équipes artistiques dans cette phase d’expérimentation est essentielle. En effet, le logiciel est conçu pour les artistes et leurs équipes techniques afin qu’ils soient à même de documenter leur propre processus de création et les œuvres créées. C’est pourquoi nous nous appuyons sur la collaboration de deux équipes artistiques, en théâtre (Jean-François Peyret) et en danse (Mylène Benoit), en résidence respectivement au Fresnoy et au Phénix scène nationale Valenciennes. Des réunions de travail avec les différents intervenants (techniciens, régisseurs, metteur en scène, chorégraphe, éclairagiste, vidéaste) font partie du processus de conception et développement de Rekall, afin d’ajuster régulièrement le cahier des charges et les spécifications aux besoins des futurs utilisateurs. Plusieurs workshops sont également prévus afin d’évaluer et éventuellement corriger certains aspects méthodologiques, comme le tracking des actions des différents contributeurs à une œuvre, ou encore le choix d’un modèle qui puisse s’adapter à de nombreuses œuvres. En effet, il nous semble que Rekall, conçu à l’origine pour des œuvres scéniques, peut également être utilisé pour des installations plastiques ou dans d’autres contextes.

Clarisse Bardiot
(maître de conférences à l’Université de Valenciennes, spécialiste des arts de la scène à composante technologique, elle est aussi éditrice et galeriste)
publié dans MCD #75, « Archéologie des médias », sept.-nov. 2014

1) ECLAP, www.eclap.eu (consulté le 01/05/2014).

(2) Digital Dance Archives, www.dance-archives.ac.uk/ (consulté le 01/05/2014).

(3) Pour des articles sur ces différentes démarches, cf. International Journal of Performance Arts & Digital Media, « Choreographic documentation », vol. 9, n°1, 2013. Performance Research, « Digital Resources », 11:4, 2007.

(4) Bardiot (C.), « Une autre mémoire : la chorégraphie des données. À propos des objets numériques développés par William Forsythe (Improvisation Technologies, Synchronous objects et Motion Bank), in Documenter, recréer… Mémoires et Transmissions des œuvres performatives et chorégraphiques contemporaines, Les Presses du Réel, à paraître.

(5) Scott de Lahunta et Norah Zuniga Shaw, « Constructing memory : creation of the choreographic resource », in Performance Research, 2007, 11:4, p. 54.

(6) Bleeker Maaike , « What if This Were an Archive? », in RTRSRCH, vol.2, n°2, 2010, p. 3-5.

(7) Ibid., p. 3.

(8) Projet initié et conçu par Clarisse Bardiot, en collaboration avec Buzzing Light et Thierry Coduys. Production Le Phénix scène nationale Valenciennes avec le soutien du Pôle Image Nord-Pas-de-Calais, de la Direction générale de la création artistique — Ministère de la Culture et de la Communication, du Fresnoy, Studio national des arts contemporains et de MA scène nationale — Pays de Montbéliard. Production cofinancée par PICTANOVO avec le soutien du Conseil Régional Nord-Pas-de-Calais, de Lille Métropole Communauté Urbaine, de la CCI Grand-Hainaut, du Centre National du Cinéma et de l’image animée.

(9) Depocas (A.), Ippolito (J.), Jones (C.) (sous la direction de). L’Approche des médias variables. La permanence par le changement. Guggenheim Museum Publications et Fondation Daniel Langlois, 2003. Publié sur Internet : http://variablemedia.net (consulté le 01/05/2014).

conserver, restaurer, préserver les œuvres médiatiques et numériques

Après des études en histoire de l’art, philosophie et linguistique générale et une pratique en électronique, vidéo et photographie, Johannes Gfeller, né en 1956, a été professeur à la Haute École des Arts de Berne (2001-2011) et depuis 2011 à l’Académie des Beaux-Arts de Stuttgart, où il dirige le Master de « Conservation des nouveaux média et de l’information numérique ».

Les pistes hélicoïdales d’une bande vidéo demi-pouce, rendues visibles par le ferrofluide.

Les pistes hélicoïdales d’une bande vidéo demi-pouce, rendues visibles par le ferrofluide. Photo: © Johannes Gfeller.

Vous êtes conservateur-restaurateur spécialisé dans la conservation-restauration des Nouveaux média, est-ce que ce nouveau champ a changé l’approche traditionnelle de la conservation ?
Je crains que ni à Berne ni à Stuttgart (1), les spécialisations en conservation-restauration des Nouveaux média n’ont, ou ne vont, pour beaucoup changer les approches traditionnelles de la conservation. Si les deux approches ont en commun le soin apporté à l’œuvre d’art (ou du bien culturel dans l’archive), elles n’ont rien de commun au niveau technologique. Le monde des pigments et des liants couvre un autre continent que celui des électrons dans un semi-conducteur. Si la conservation était un peu moins « conservatrice », elle créerait une spécialisation « art contemporain, biens culturels électriques et électroniques » ou quelque chose de ce genre.

Le fait que les spécialisations plus traditionnelles utilisent des appareils d’analyse de haute technologie, et que ces derniers soient devenus des appareils numériques avec des données à structurer et à conserver à long terme, peut rapprocher les « traditionalistes » et les « modernes » (numériques). Le programme de Stuttgart couvre la photographie, l’audiovisuel et les données numériques. Si ce programme avait une Licence et un Master comme les quatre autres programmes, une fécondation de ces programmes par conservation numérique serait beaucoup plus facile. Malheureusement il est difficile de trouver des horaires communs.

Plusieurs théoriciens distinguent la conservation de la préservation des nouveaux média, que pensez-vous de cette distinction ? Quelle est sa signification ?
Dans les domaines plus traditionnels de la conservation-restauration, on s’est mis d’accord sur le fait que la ligne de démarcation est située quelque part entre la documentation, la conservation préventive, le nettoyage d’un côté et de l’autre côté la restauration, invasive si nécessaire avec toutes les implications d’une réversibilité des interventions. La restauration doit être fondée sur une expérience et un savoir plus large que les premiers, pour éviter des traitements inadéquats de l’œuvre en question. Le domaine de la restauration scientifique, qui n’existe que depuis quelques décennies, digère et souffre encore des dérives certes bien intentionnées du 19ème siècle.

Dans le domaine des média, qu’ils soient analogiques ou numériques, les « traitements » ont un caractère différent. Du côté des objets à conserver, par exemple une installation vidéo — mais on peut déjà l’élargir aux objets numériques —, il y a toujours cette contradiction entre conservation de la substance et conservation de la fonction. L’impossibilité même de répondre aux exigences des deux besoins à la fois a mené à la notion de l’obsolescence de l’original, avec tous ses effets qui conduisent à une « culture » d’échange d’appareils originaux (dans la mesure où ils sont gardés ou conservés) contre des modèles plus récents. Parfois ces derniers ont non seulement une apparence toute différente, mais il leur manque aussi les fonctions « primitives » de l’original propre à une époque révolue.

Cette pratique va créer des œuvres SDF, dépourvues de leurs « boîtes » typiques. Celles-ci pourtant racontent beaucoup de l’ère de leur création. C’est d’ailleurs un grand jeu de dupes malhonnêtes de priver toutes les générations à venir d’une expérience aussi authentique que possible d’une époque du passé. La question initiale (conservation et/ou préservation) n’a ici plus tellement de pertinence.  Il est plus important de considérer la fusion entre la conservation-restauration et l’ingénierie électronique pour développer de nouveaux modèles et pratiques de pérennisation qui ne seraient pas guidés par un corset idéologique tel que la « variable media initiative » (2) (à laquelle a succédé le projet Forging the Future (3)).

Gérald Minkoff, L’envers à L’endroit, 1971. Reconstruction 2008 par Johannes Gfeller.

Gérald Minkoff, L’envers à L’endroit, 1971. Reconstruction 2008 par Johannes Gfeller. Photo: © Johannes Gfeller.

Ce projet semblait marqué par un nouveau type d’artiste-curateur, auquel la conservation, restée trop longtemps dans son milieu pigments-liants, n’était pas préparé du tout. Pour sortir de ce déficit, la conservation a développé une culture de documentation (qui était bien nécessaire), mais absolument pas une culture de l’intervention que l’époque réclamait. La « variable media initiative » cachait son propre manque par une sorte de « il faut être absolument moderne », en appliquant des termes techniques de la science informatique, telle que la migration et l’émulation sur toutes les matérialités de l’art contemporain, que cela soit approprié ou non. Pour être juste, il faut dire que plus les œuvres étaient numériques, plus les différents niveaux d’intervention, tels qu’ils sont proposés par la « variable media initiative », gagnaient en pertinence.

Pour revenir à la question initiale, on a bien sûr non seulement à traiter des objets, mais aussi des supports d’information. Comme la conservation préventive demande une haute responsabilité dans son niveau d’intervention — qui est réelle : une conservation préventive sans effet possible sur les œuvres et les supports ne mériterait probablement pas qu’on s’y arrête —, le traitement des supports doit se fonder sur des expériences. Mais ces expériences sont fondées davantage sur le savoir de la communauté de ceux qui les pratiquent tous les jours, de nombreuses heures, face à des milliers d’objets, que sur les résultats des scientifiques, qui choisissent un corpus particulier qui est limité et maniable. Il y a certes des « do’s » et des « do not » dans la migration des supports, qui peuvent toucher à l’intégrité physique de l’objet, mais ils sont autant du côté du savoir (degré des études) que de la (mal)adresse. Le succès et la qualité d’une migration dépendent donc de divers facteurs, dont le degré atteint par les études n’est qu’un élément.

Pensez-vous que la théorie de l’archéologie des média (et en particulier le point de vue matérialiste de Friedrich Kittler, chez qui le hardware est fondamental) est pertinente pour aborder la conservation-restauration des nouveaux média ?
Absolument. Si déjà on parle d’archéologie, on s’est probablement mis en accord que cela comprend aussi les média analogiques. Ceci n’est pas évident, parce que pour beaucoup de personnes de ce milieu, les nouveaux média ne commencent qu’avec l’apparition du numérique (au mieux, dans la première moitié des années 1970). Pour la description de la fonction d’une œuvre numérique, on peut bien négliger ses composants électroniques, du moins si on se contente d’une approche plus philosophique, voire informatique. On peut donner une description minutieuse de la fonction et du comportement de l’œuvre sans entrer dans le niveau technique des signaux et des composants. Mais dès que se posent les questions de sa pérennisation, la connaissance du hardware devient indispensable. Beaucoup de défauts, même dans un objet considéré comme étant numérique, sont de caractère analogique : trop de chaleur implique des défaillances. Le vieillissement des condensateurs électrolytiques, la corrosion des platines et des contacts, les soudures dites froides, etc.

Tout ce savoir s’est accumulé pendant des décennies — s’en priver par une décision, selon laquelle il ne faudrait considérer que la technologie numérique serait une grosse bêtise. Ceux qui la propagent montrent que leur connaissance en hardware — qui est tout de même la base du trafic d’électrons et des valeurs de tensions analogiques ou numériques (qui, soit dit en passant, sont passées de deux valeurs à huit par cellule dans les récents disques durs solides SSD — la renaissance de la richesse analogique en quelque sorte), est fort restreinte. Adopter un tel point de vue est peut-être suffisant pour une discussion philosophique de salon reflétant nos temps modernes, mais pas pour une recherche professionnelle qui doit considérer tous les effets possibles.

Les média sont certes toujours issus d’une situation socio-culturelle, mais aussi techno-culturelle. Nier la base technologique de notre socialisation contemporaine n’est peut-être pas politiquement conservateur, mais philosophiquement. Le juste chemin de la compréhension et de la responsabilité dans l’usage des nouveaux média ne peut donc, dès lors que l’on se place sur la route de leur pérennisation, n’être que matérialiste, non pas au nom d’un choix volontaire, mais par une vue nourrie d’expériences techno-historiques qui alimentent le long chemin vers le virtuel. La connaissance de la matérialité est de la plus grande importance dans le virtuel à venir, dans lequel une grande partie de nos œuvres et idées vont finir. Néanmoins les deux notions « matérialisme » et « matérialité » ont des origines toutes différentes… Et nous ne les aborderons pas ici…

Des composants électroniques dégradés dans la télévision de Wolf Vostell, TV für Millionen, 1959/67.

Des composants électroniques dégradés dans la télévision de Wolf Vostell, TV für Millionen, 1959/67. Photo: © Johannes Gfeller.

Pouvez-vous donner un exemple emblématique des difficultés de la conservation des œuvres d’art numériques ?
Au lieu d’un seul exemple, je préfère ici esquisser ses difficultés principales. Si l’ordinateur, sur lequel une œuvre est installée, n’est plus réparable, on peut essayer de trouver le même modèle. Probablement la migration sera un succès. Mais, tôt ou tard, le remplaçant devra lui aussi être remplacé. Ici sonne l’heure de l’émulation : un ordinateur plus moderne fait comme si, grâce à un logiciel appelé « émulateur », il était l’ordinateur obsolète et à remplacer. Le logiciel original, peut-être programmé par l’artiste(-ingénieur), va « reconnaître » son environnement initial et se mettre en marche comme jadis. Mais tout cela a un coût.  L’élaboration d’une émulation de tout un système (par exemple une Silicon Graphics Indigo2) est un travail de plusieurs mois d’un informaticien spécialisé. Ce peut être un cas pour un crowdsourcing : mais qui sont les bénéficiaires ? Les visiteurs de l’exposition ? L’artiste ? …

Une œuvre existant uniquement sur internet ne connaît pas ces difficultés du bas-fond technologique. Mais elle dépend d’un changement encore plus rapide : celui des formats de données, des protocoles de transmission et des fonctions des navigateurs. La conservation d’une telle œuvre nécessite une reprogrammation permanente, si elle veut la maintenir en ligne. Nous pouvons essayer de la garder hors ligne, mais nous entrons alors de nouveau dans la problématique générale de la conservation des ordinateurs et de leurs logiciels, une problématique augmentée d’un problème d’ordre philosophique : si l’œuvre en ligne se nourrissait de données pour en faire son propre contenu, elle est littéralement mise en état de « conservation » dès lors qu’elle est mise hors ligne. Elle est alors sa propre documentation, et non plus l’œuvre en état de fonctionnement. Probablement elle nécessite même un succédané fini au lieu du réseau infini, mis à disposition sur un serveur qui peut être connecté par une « documentation » au lieu du réseau réel. Même si le visiteur de musée ne s’en rend pas compte, il y a dans ce cas plusieurs changements sinon des altérations profondes de l’œuvre initiale.

Signal vidéo perturbé volontairement dans un but créatif par Jean Otth, Hommage à Mondrian, 1972.

Signal vidéo perturbé volontairement dans un but créatif par Jean Otth, Hommage à Mondrian, 1972. Photo: © Johannes Gfeller.

Vous dirigez le Master de « Conservation des nouveaux média et de l’information numérique » au sein de l’Académie des Beaux-Arts de Stuttgart : quel bilan dressez-vous de cette formation? Quelles sont les disciplines les plus importantes ? Y a-t-il vraiment des débouchés ?
La durée totale de notre master est de 2 ans, stages professionnels et projets (pratiques) de conservation inclus. Si on en décompte le dernier trimestre qui est uniquement réservé au mémoire, il reste un an et 9 semaines pour les cours, qui se partagent entre la photographie, l’audiovisuel et l’information numérique. Quand j’ai pris en charge la direction du programme en 2011, il y avait peu d’équipement disponible pour les étudiants, à part des ordinateurs achetés en 2006, un scanner et une imprimante, et quelques caméras et lecteurs vidéos anciens. J’ai investi dans une collection d’appareils obsolètes surtout dans le domaine de l’audiovisuel, qui nous permettent de migrer des formats audio depuis le cylindre en cire jusqu’à un vaste nombre de formats de bandes magnétiques amateurs ou studio.

Dans le domaine de la vidéo, nous lisons presque une quarantaine de formats analogiques et numériques différents et nous sommes capables de les transférer en fichier non-compressé et sans drop-outs. J’ai acheté des outils de toute sorte, des microscopes, des sources lumineuses normalisées, des scanners de négatifs et de diapos de haut de gamme, des appareils pour le color-management, etc. Les étudiants et étudiantes ont beaucoup apprécié ce « material turn », qui leur a permis de découvrir des appareils, non plus seulement à l’occasion de visites dans des institutions avec lesquelles nous avons une collaboration, mais aussi dans les cours pratiques d’atelier que j’ai introduits dans l’académie.

Les études sont denses et nous nous demandons régulièrement si les trois spécialisations ne mènent pas à une trop grande superficialité des connaissances dans chacune des trois spécialisations. En retour se contenter d’une seule discipline les deux années ne permettrait pas vraiment d’avoir une connaissance approfondie. L’argument pour ne pas laisser tomber la photographie, qui est le médium le moins technique de notre programme, est double : non seulement la production s’est complètement tournée vers le numérique, mais de plus ce défi va changer pour beaucoup le profil professionnel des conservateurs. Dans notre programme, l’informatique possède un rôle clé, d’une part comme outil de convergence de média et d’autre part comme medium concerné lui-même par l’obsolescence. Jouer ce double rôle, en laissant ouvertes en permanence les portes de l’analogique — d’où viennent les données, est l’essence du programme de Stuttgart. Avec cette diversité, les diplômés trouvent des emplois dans des archives, des bibliothèques, des musées, et des programmes de recherche.

Des courroies complètement dégradées dans un magnétoscope vidéo Philips, env. 1967. Photo: © Johannes Gfeller.

Comment, en quelques mots, décririez-vous le travail du conservateur-restaurateur  d’œuvres d’art numériques ?
Comme il n’y a pas encore ce type de professionnel, regardons dans le futur : cela devra mener à une fusion entre l’ingénierie (pour deux parts), la science de l’art contemporain et des media (pour une part) et la conservation (pour une part), la répartition exacte entre ces parts étant variable. Bien sûr on peut continuer la voie de la conservation comme discipline centrale qui engage des professionnels spécialisés, mais je crois qu’il est temps aujourd’hui d’inverser les rôles. Selon ce modèle, ce sont d’excellentes connaissances techniques et informatiques qui doivent être enrichies par les principes élémentaires de la conservation et par des études culturelles. Pourquoi l’ingénierie et non pas seulement l’informatique ?

Les œuvres d’arts numériques ne sont que rarement des produits standards installés et programmés dans un but artistique. Très souvent elles comportent des ajouts mécaniques et/ou électroniques réalisés spécialement pour elles. Les grands principes de l’émulation ou de la virtualisation ne sont pas capables à eux-seuls de manier ces cas spéciaux, pour lesquels l’ingénierie est nécessaire. Pour les œuvres purement virtuelles, qui ne dépendent pas d’un hardware dédié, la répartition tourne en faveur de l’informatique (une à deux parts).

propos recueillis par Emmanuel Guez
publié dans MCD #75, « Archéologie des médias », sept.-nov. 2014

(1) Il s’agit des deux endroits d’enseignement de conservation des nouveaux média que je connais bien et qui sont en même temps les deux programmes principaux dans les pays de langue allemande. Pour une comparaison des deux programmes voir : Johannes Gfeller, À propos de la formation dans la discipline « conservation des média », in Bernhard Serexhe, Conservation de l’art numérique : théorie et pratique – Le projet digital art conservation, Walter de Gruyter, 2013, p. 567-584.

(2) www.variablemedia.net/

(3) http://forging-the-future.net/

 

 

art et capitalisme

Les politiques de l’art ont pour objectif d’inventer des points de passages entre les lieux de l’art et de la politique. Depuis une vingtaine d’années, les concepts et pratiques qui les ont structurés s’épuisent. Il faut désormais compter avec les machines. Dès lors, une approche archéomédiatique s’impose.

Le rapport entre art et politique peut, depuis Karl Marx, être pensé du point de vue de la hiérarchisation des activités humaines. Le penseur du communisme distingue les bases économiques de la société de ses superstructures, ou formes idéologiques, dont l’art fait partie, qui sont l’expression des bouleversements économiques (1). Que l’on fût pour ou contre le marxisme, que l’on critiquât les régimes totalitaires socialistes tout en conservant une approche critique du capitalisme, l’approche marxiste de la relation entre art et politique fut incontournable des années 1920 aux années 1980. Selon elle, il appartenait aux artistes de transformer la société par l’art, c’est-à-dire les rapports sociaux, contre le capitalisme.

En 1924, Trotski écrivit ceci : Les poètes, les peintres, les sculpteurs, les acteurs devraient donc cesser de réfléchir, de représenter, d’écrire des poèmes, de peindre des tableaux, de tailler des sculptures, de s’exprimer devant la rampe, et porter leur art directement dans la vie ? Mais comment, où et par quelles portes ? (2). Le fondateur de l’Armée Rouge pensait l’art en tacticien : la relation « entre » l’art et la politique relève de la science militaire. Entre art et politique, il fut question, dès ce moment là, et pour longtemps, des lieux de l’art et de la politique, de leurs frontières, de leurs passages et de leurs géographies.

Cette approche militaire de l’art concerne tout autant la place de l’artiste dans la société, l’espace de l’art (celui où il se fabrique et où il se montre) que le topos nouveau qu’il contribue à construire, qu’il soit utopique ou hétérotopique. Quels lieux pour et de l’art ? Pour quelles conquêtes ? Les politiques justement, en France du moins, parleront des publics, qui seront d’abord déterritorialisés puis reterritorialisés. Quelles places fortes — les espaces culturels, les galeries, les centres d’art, la rue ? Enfin, quel espace commun inventé par l’art, participant à forger, pour reprendre l’expression de Jacques Rancière, le « partage du sensible » (3) ?

Quentin Destieu, Gold Revolution, 2015.

Quentin Destieu, Gold Revolution, 2015. Photo : © Quentin Destieu

L’artiste moderne (et postmoderne) à la recherche des hétérotopies
Dans un contexte où l’organisation sociale, militaire, éducative et familiale participaient d’une même biopolitique (4), l’artiste devint un travailleur parmi d’autres, c’est-à-dire qu’il put être considéré du point de vue de son statut sociologique. Dans le même temps, sa destination fut d’être un travailleur émancipé, un être affranchi des contraintes de l’idéologie bourgeoise, de ses phénomènes de domination par la langue (conventionnelle), par l’éducation (le rapport maître-élève) et par l’ordre social, ses normes et ses règles, qui contraignent les corps et les pratiques. L’émancipation de l’artiste, supposant la transgression de l’art institutionnalisé, s’accompagnait alors d’une revendication d’émancipation collective, exprimée sous la forme d’un Manifeste et d’une réalisation (l’œuvre d’art), dirigée contre le mode de production et de consommation capitalistes (5).

Pendant de longues années, penser le rapport de l’art et de la politique impliqua de saisir l’espace d’émancipation où il se jouait. La science qui le prit comme objet fut l’histoire de l’art. Pour des raisons complètement étrangères à la politique de l’art, toute conquête (y compris militaire) doit être une conquête dans l’histoire, qui se traduit par l’exigence du nouveau (6). La critique et les institutions de l’art s’appuient en effet sur l’histoire de l’art, qui est l’instance de vérification de la nouveauté, agissant dans le même temps comme une autorité instituante. De ce point de vue, l’étalon moderne de la nouveauté, jusque dans son concept, ont été les avant-gardes artistiques.

Fort de cet héritage, l’enjeu de la relation de l’art et de la politique fut et demeure (s’il continue à la penser comme telle), pour l’artiste, la fabrication de lieux-autres, ou hétérotopies, impliquant la subversion de l’ordre social et moral capitaliste. À la fin du 20e et au début du 21e siècle, dans le contexte postmoderne de la fin des espoirs collectifs par lequel ce rapport devint désenchanté et cynique, l’art critique a poursuivi cette voie par une multitude de moyens. Jacques Rancière en distingue quatre : le jeu (à la suite de Fluxus, Maurizio Cattelan), l’inventaire (Christian Boltanski), la rencontre (Rirkrit Tiravanija) ou l’esthétique relationnelle de Nicolas Bourriaud (7) et le mystère (Vanessa Beecroft) (8). L’époque, ajoute Jacques Rancière, appelle à davantage d’art, ou plutôt de politiques de l’art, par le déficit même de la politique proprement dite, exigeant des substitutions, une recomposition des espaces politiques, à moins qu’elles ne soient plus seulement capables que de les parodier (9).

L’école d’art française, lieu de transmission de l’art et l’une des instances de légitimation de l’artiste, est l’aboutissement de ce modèle de l’art, aujourd’hui épuisé. On y apprend à se penser « travailleur », à tenir un « discours » cohérent et singulier sur le « travail », à définir un « projet » — l’idéologie du projet, chère au management des années 1980, est passée par là (10) —, à savoir se positionner — comme lorsqu’on prend une position militaire — par rapport au « nouveau » par un savoir positif constitué de « références ».

Structuré par le statut de travailleur et par l’impératif du Manifeste, mais en l’absence de tout rêve collectif et d’emprise sur la politique et les autres activités (économiques, techniques, etc.), l’étudiant construit patiemment pendant les cinq années qui le conduisent au diplôme, un manifeste qui ne concerne désormais que lui (son statement). À défaut d’être armé pour collectivement affronter la politique et la société, il est alors paradoxalement livré en pâture à l’institution qui fait et défait l’artiste ainsi qu’au monde clos et autonome de l’art.

Le monde de l’art face au déplacement du lieu de la politique
Mais les processus de clôture de la politique et de la domination se sont déplacés à un autre niveau que ceux des avant-gardes du 20e siècle. Les stratégies et tactiques révolutionnaires du 18e siècle s’écrivaient avec l’imprimé. Celles du 19e, avec les presses industrielles. Au 20e, avec la radio, du cinéma et de la télévision. Au 21e elles s’écrivent avec les ordinateurs et le réseau. Il y a encore trente ans, un coup d’État ou une conquête militaire exigeait le contrôle de la télévision et de la radio.

Aujourd’hui, la redoutable armée de l’État Islamique est à l’image des réseaux, insaisissable. Rappelant les mises en scène des régimes totalitaires tout en en étant radicalement éloignée dans le format, elle s’adresse directement aux masses sans passer par les mass-médias traditionnels, faisant écho à l’univers des vidéos en ligne et jouant sur les ressorts d’une pornographie de l’horreur familière au Web. Intégrant tous les anciens médias, ce dernier produit, grâce à ses effets médiatiques infiniment plus puissants que toutes les productions artistiques contemporaines réunies, la sensibilité commune à la base de la politique. Parallèlement, la grande nouveauté de l’histoire est que désormais le lieu du capitalisme est en même temps son médium. Habitué à (se) montrer dans d’autres lieux, l’art institutionnalisé laisse vide le terrain où, aujourd’hui, le nouveau capitalisme (Google, Apple, Facebook, Amazon) produit et se produit.

Le Net art, cette avant-garde morte avant d’être connue
En réalité, lorsque le Web est né, des artistes se sont emparés du Net en tant qu’espace critique nouveau — interrogeant le sujet, l’identité, l’écriture, la communication et l’information — et en déjouant les mass-médias traditionnels. Ainsi, les Yesmen s’amusèrent de la BBC pour torpiller la Dow Chemical Company. L’usage politique des technologies électroniques fut également une cible de prédilection. Heath Bunting, par exemple, explora ironiquement, avec le Web et (presque) avant tout le monde, la caméra de surveillance. Pour ces artistes du Net, le Web était le non-lieu de l’art, où ils pouvaient aussi bien montrer leur « travail » directement sans la médiation de l’institution que recomposer un espace politique. À la différence de l’artiste émancipé et émancipateur du 20e siècle, qui (s’)exposait dans l’espace privé de la galerie ou dans l’espace public, réservant ainsi ses effets à une élite culturelle convaincue, l’artiste du réseau ouvrait des brèches dans le (nouveau) lieu de fabrication du capitalisme informationnel et du politique.

Nicolas Maigret, The Pirate Cinema (Installation), 2014.

Nicolas Maigret, The Pirate Cinema (Installation), 2014. Photo : © Nicolas Maigret

Dès lors que le capitalisme, tout aussi plastique que l’art, commença à s’emparer du réseau, la guerre fut inévitable. Ainsi débuta la Toywar, à la fin des années 1990, une guerre entre le collectif artistique et activiste, etoy.com et une entreprise de vente en ligne de jouets, etoys.com. L’objet du conflit : un nom de domaine. Malgré les dollars d’etoys, le premier vainquit le second à coup d’attaques informatiques, marquant ainsi une victoire de l’art sur le capitalisme. Le monde de l’art, qui se fondait de plus en plus dans les exigences de la publicité et de la communication, n’échappa pas davantage à la critique.

Quand Luther Blissett, un collectif anonyme européen postnéoiste d’une soixantaine d’artistes et théoriciens, réussit à se moquer du monde de l’art en le mobilisant grâce aux médias traditionnels après l’enfermement puis la mort d’un artiste fictif, Darko Maver, il avait réussi à montrer l’inféodation de l’art aux médias de communication. À la différence des théoriciens en esthétique, les tacticiens des médias, comme Geert Lovink, Florian Cramer ou plus récemment Dmytri Kleiner, se préoccupaient bien moins de ce qu’est l’art, de l’œuvre, de son authenticité, de son monde et de son marché que de savoir quels effets produisaient les médias techniques sur les activités humaines et la vie commune, proposant en conséquence des alternatives politiques au capitalisme du savoir et de la culture. Ainsi le manifeste télécommuniste propose-t-il un réseau fondé, non sur la structure client-serveur, contrôlée par le capitalisme du Web, mais sur le peer-to-peer et le logiciel libre (11).

Pendant ce temps, et jusqu’à aujourd’hui encore, l’art légitime chercha des formes nouvelles tout en s’attachant à habiter l’espace auquel il était habitué depuis plus d’un siècle. Le nom de l’artiste continuait à être une marque et la politique de l’art à être dévorée par l’art du politique. L’art Internet finit lui-même par être consommé par l’hypercapitalisme informationnel, lorsque ses artistes — les plus jeunes d’entre eux surtout — aspirèrent à intégrer le circuit traditionnel de l’art, produisant, dans le style ou suivant le Net (12), des produits dérivés durables et montrables dans les lieux de l’art autonome. La « nouveauté » ne porta pas sur une quelconque « rematérialisation » de l’art Internet (dès ses débuts, l’art du réseau a été matériel — son manifeste ayant même été en 1999 gravé dans la pierre), mais dans l’aspiration à revenir à un mode ancien de production de l’art. Malgré quelques résistances toujours actives, le Net art mourut ainsi avant d’avoir été transmis. L’art post-Internet naquit à sa suite, signant la victoire d’un art impuissant à construire une nouvelle politique de l’art.

Vers une archéopolitique des médias
Le Net art avait compris que la domination politique et économique s’opérait dorénavant à un autre niveau. Depuis l’Altair Basic produit par Microsoft, les yeux de la critique politique étaient braqués sur le logiciel et sur sa propriété — donnant alors naissance au genre de l’artiste-hacker. Mais la maîtrise des langages exige à un niveau plus profond la maîtrise des machines (13). C’est précisément en ce lieu — au cœur de la machine elle-même — qu’une politique de l’art est urgente. Urgence de l’appropriation par l’art non seulement des langages des machines, mais aussi de leurs structures matérielles auxquelles nous n’avons plus accès, alors qu’elles conditionnent l’écriture, la pensée et la fabrication d’une sensibilité commune.

Parallèlement à sa descente archéopolitique dans les couches technologiques qui forment la base concrète sur laquelle s’élève aujourd’hui la culture et les rapports sociaux, l’art archéomédiatique demande donc une nouvelle esthétique. En 1997, pour un concours d’art numérique à la Kunsthalle de Hambourg, Cornelia Sollfrank créait 288 artistes fictifs et autant d’œuvres, toutes générées par ordinateur. À la Maison Rouge, en 2014, Antoine de Galbert confia le commissariat et l’accrochage de son exposition à un algorithme.

Bientôt, des œuvres produites par des algorithmes seront choisies par d’autres algorithmes, eux-mêmes programmés par des machines, montrées en ligne ou de manière tangibles, tandis que la maintenance et l’accrochage seront assurés par des petites mains humaines (14). Ainsi, l’art ne peut plus seulement être raconté par l’histoire de l’art, mais aussi par les machines, par un traitement algorithmique des bases de données du monde de l’art lui-même. Les temporalités des machines, marquées par les continuités et les ruptures entre « anciens » et « nouveaux » médias, entre obsolescence et émergence, constituent des phénomènes qui ne peuvent, pour cette raison, être l’objet d’un discours historique, mais qui doivent, en revanche, être géographisés, atlasisés et cartographiés (15).

Passant outre le nuage symbolique des logiciels recouvrant le réel de la machine, cette descente archéologique dans les couches de ses matérialités appelle, à chaque niveau, un éclaircissement sur les stratégies industrielles de l’informatique et leur lien étroit avec le monde militaire et politique. L’art du réel ouvre les machines, en saisit la composition jusqu’aux éléments les plus simples, explore leur fonctionnement (par le hardware hacking), leur dysfonctionnement (par le glitch) et leur a-fonctionnement (par le bug), et mesure les présupposés ainsi que les conséquences écologiques, sociales et économiques de leurs matérialités. Il ne s’agit pas de hurler à la fin de la pensée ou à l’avènement prochain d’un fascisme technologique — de cela nous n’en savons rien —, mais d’inventer par un art archéo-machinique un espace partagé avec le monde des machines qui est venu bouleverser la torpeur dans laquelle s’était installée la relation de l’art et de la politique.

Emmanuel Guez
Artiste et philosophe, Emmanuel Guez est directeur du PAMAL (Preservation – Archaeology – Media Art Lab) à l’École Supérieure d’Art d’Avignon.

publié dans MCD #77, « La Politique de l’art », mars / mai 2015

(1) Karl Marx, Contribution à la critique de l’économie politique [1859], trad. Maurice Husson et Gilbert Badia, Paris, Éditions Sociales, 1977.

(2) Léon Trotsky, Littérature et révolution, Paris, Union générale d’éditions / 10-18, 1964.

(3) Jacques Rancière, Le partage du sensible, Paris, La Fabrique, 2000.

(4) Michel Foucault, Histoire de la sexualité, Paris, Gallimard, 1994.

(5) Mikel Dufrenne, Art et politique, Paris, Union générale d’éditions, 1974.

(6) Boris Groys, Du Nouveau, essai d’économie culturelle, Paris, Jacqueline Chambon, 1995.

(7) Nicolas Bourriaud, L’esthétique relationnelle, Paris, Les Presses du Réel, 1998.

(8) Jacques Rancière, Malaise dans l’esthétique, Paris, Galilée, 2004.

(9) Ibidem, p.84.

(10) Luc Boltanski, Eve Chiapello, Le Nouvel esprit du capitalisme, Paris, Gallimard, 1999.

(11) Dmytri Kleiner, The Telekommunist Manifesto, Amsterdam, Institute of Networks Cultures, 2010.

(12) Marisa Olson, Postinternet : Art after Internet (2011) in Art and the Internet, Black dog publishing, 2013.

(13) Cf. Friedrich Kittler, Le Logiciel n’existe pas, trad. Frédérique Vargoz, Paris, Les Presses du réel, 2015 (à paraître).

(14) Une idée imaginée et partagée à la suite d’un échange avec Marie Lechner.

(15) Je m’appuie ici sur les recherches menées par Christophe Bruno.

 

 

… cherchant désespérément à saisir les racines du bug

En tant que symptôme annonciateur des phénomènes d’obsolescence, le bug est un concept important dans le cadre d’une archéologie des média, aussi bien que dans les champs scientifiques et technologiques. De par son lien étroit avec les questions du fonctionnalisme et de l’échec, il intéresse également l’art contemporain. Les artistes numériques se sont emparés de cette question au travers du glitch, forme qui connaît une expansion importante depuis la fin de la dernière décennie (1).

À la recherche de Damien Hirst, The Physical Impossibilitity od Death in the Mind of Someone Living. Photo: Creative Commons (CC BY-NC-SA 4.0)

Auparavant, des artistes du Web comme JODI ou Jimpunk avaient largement exploré les défaillances des codes informatiques et des navigateurs. Le terme glitch, en tant qu’il dénote un genre, provient en fait de la musique électronique du milieu des années 1990 et caractérise une esthétique de l’échec — aesthetics of failure (2). Il est également utilisé dans le monde du jeu vidéo pour désigner un bug sur le comportement d’un objet 3D animé. On trouve des précédents à ces usages dans l’art vidéo, comme par exemple dans l’œuvre I’m not the girl who misses much de Pipilotti Rist (1986) ou dans les machines auto-destructrices de Jean Tinguely des années 1960, voire dans l’héritage moderne du début du XXe siècle. On perçoit ici toute l’ambiguïté qui réside dans le concept de bug, phénomène dysfonctionnel, inattendu et involontaire dont l’aspect paradoxal apparaît dès lors qu’il acquiert lui-même une fonction, celle, par exemple, de produire du sens, ou des œuvres d’art.

Archéologie des média et glitch
Intitulée The Physical Impossibility of Bug in the Mind of Someone Singing (3), l’installation dont il est ici question se compose d’un caisson de verre de 100x50x50 cm scindé en deux parties égales, séparées par une paroi. Dans l’un des blocs est disposée une tour d’ordinateur démontée, laissant apparaître les différents composants nécessaires à son fonctionnement comme le disque dur, la carte mère, la carte graphique, les barrettes de mémoire, ainsi que de nombreux câbles enchevêtrés. Le tout repose sur du terreau et divers éléments végétaux qui évoquent un écosystème animalier sommaire. Avant de sceller le compartiment, une cinquantaine de grillons sont introduits à l’intérieur. En évoluant à la surface des cartes électroniques, les grillons provoquent des courts-circuits. Ils servent de connecteurs/interrupteurs aléatoires entre les différents composants de l’ordinateur.

Ces courts-circuits créent un dialogue entre ce premier bloc, représentant la part physique du dispositif, et le deuxième, représentant la part virtuelle. Celui-ci contient en effet un moniteur connecté à l’ordinateur démonté du premier bloc. La connexion se fait grâce à un câble qui passe derrière le caisson de verre. Le spectateur peut y voir une vidéo qui tourne en boucle : tantôt une émission télévisée du chanteur Dave, tantôt des fourmillements d’insectes filmés en gros plan, et d’autres séquences difficilement identifiables. Mais la lecture de cette vidéo est perturbée par des défaillances de l’affichage de l’écran — les glitches. Le spectateur comprend rapidement que ce sont les grillons, qui, en passant sur les circuits imprimés, provoquent les aberrations visuelles sur l’écran du caisson adjacent.

Dans son principe, l’installation s’articule autour de deux axes principaux. Le premier est en lien avec l’archéologie des média. Il concerne ce qui est considéré comme le premier bug informatique de l’histoire identifié en 1947 par Grace Hopper (5). Inventorié par l’informaticienne américaine dans le journal d’entretien du Harvard Mark II et signalé par la phrase First actual case of bug being found, il consiste en un dysfonctionnement au niveau des composants physiques de la machine : un insecte (bug en anglais) — plus précisément un papillon de nuit — se retrouve piégé dans l’un des relais du gigantesque ordinateur électromécanique et provoque une panne dans son fonctionnement. The Physical Impossibility of Bug in the Mind of Someone Singing vise à réactiver ce bug originel.

The Physical Impossibility of Bug in the Mind of Someone Singing, Christophe Bruno, Laura Garrassin et Sylvain Goutailler, 2014. Photo: © PAMAL / ESAA.

Le deuxième axe concerne la pratique du glitch, actuellement en vogue dans la création numérique. Le glitch est une forme de bug, une défaillance dans la lecture d’un fichier digital, dans l’affichage d’une image par exemple, ou bien dans l’exécution d’un son ou d’une vidéo. On distingue en général les glitches d’origine logicielle de ceux d’origine matérielle. Les premiers appartiennent à la pratique du data bending, qui consiste à modifier des données numériques d’un fichier informatique de manière à provoquer des dysfonctionnements incontrôlés lors de leur lecture. Par exemple, on ouvre un fichier image avec un éditeur de texte afin de visualiser son code source hexadécimal, incompréhensible pour un humain, puis on le modifie à loisir. La nouvelle image qui résulte de cette opération hasardeuse apparaît alors couverte de pixels intempestifs et de caviardages digitaux improbables.

De manière plus générale, la pratique du data bending consiste à modifier un fichier d’un format numérique donné avec un logiciel conçu pour d’autres formats : on glitche une vidéo avec un logiciel de traitement sonore, on glitche un son avec Photoshop… La pratique du circuit bending se rapporte en revanche au cas des glitches d’origine matérielle (c’est le cas de l’installation décrite ici). Si le résultat apparent est similaire, la cause se situe non plus au niveau du software, mais du hardware : il s’agit dans ce cas de court-circuiter de façon volontaire les éléments électroniques de faible tension que sont les composants de l’ordinateur afin de provoquer des perturbations dans la lecture des fichiers numériques.

De l’impossibilité de préserver le bug
L’esthétique « post-digitale » (4) qui s’est développée autour de ces deux pratiques, celle du data bending et celle du circuit bending, joue sur la perte de contrôle, l’aspect aléatoire, voire magique, de l’intervention de celui qui manipule les fichiers informatiques. Elle se base aussi sur la démocratisation des outils numériques, et la facilité avec laquelle il est possible de détourner leurs fonctionnalités, avec très peu de connaissances techniques.

Si The Physical Impossibility of Bug in the Mind of Someone Singing interroge la notion de post-digital en introduisant l’icône vintage des années 1970 qu’est le chanteur Dave à l’intérieur d’un dispositif informatique, elle évoque également la question paradoxale qu’est celle de la conservation d’un dispositif qui dysfonctionne. La référence à l’installation créée en 1991 par Damien Hirst, The Physical Impossibility of Death in the Mind of Someone Living, dans laquelle on peut voir un requin conservé dans un aquarium rempli de formol, est d’ailleurs là pour nous le rappeler.

Au-delà de l’installation elle-même, le paradoxe est en effet criant dès lors que l’on se pose la question de la préservation du bug. Comme les créateurs de logiciels le savent bien, pour corriger un bug, et donc le faire disparaître, il faut impérativement pouvoir le reproduire. Réciproquement, un bug perdurera d’autant plus qu’il est non-reproductible. Comment alors envisager la question de la conservation d’une œuvre d’art qui joue sur la dysfonction, dans la mesure où, à l’instar du bug, l’œuvre perdurerait d’autant plus qu’elle est non-reproductible ?

Christophe Bruno
artiste et professeur à l’École Supérieure d’Art d’Avignon
Laura Garrassin & Sylvain Goutailler
diplômés du D.N.A.P., mention conservation-restauration
publié dans MCD #75, « Archéologie des médias », sept.-nov. 2014

(1) À l’origine, un glitch est une défaillance électronique qui entraîne un dysfonctionnement du matériel informatique (hardware), qui provoque des répercussions sur les logiciels (software).

(2) Cascone (K.), The aesthetics of failure: « post-digital » tendencies in contemporary computer music, 2000, http://subsol.c3.hu/subsol_2/contributors3/casconetext.html

(3) L’installation The Physical Impossibility of Bug in the Mind of Someone Singing (2014) a été conçue et réalisée par Christophe Bruno, Laura Garrassin et Sylvain Goutailler, lors du projet collaboratif D.A.V.E. conduit par Christophe Bruno, dans le cadre du programme P.A.M.A.L. de l’E.S.A.A. Ont participé à la phase de recherche préliminaire, Frédéric Boutié, Mathilde Chassagneux, Juliette Dirat, Laura Garrassin et Sylvain Goutailler. Remerciements pour leur aide à Julien Baylac, Stéphane Bizet et Jean-Louis Praët. L’installation a été montrée pour la première fois lors des journées portes ouvertes de l’E.S.A.A. en mars 2014, puis sera exposée à Avignon en octobre 2014.

(4) Parmi les définitions possibles du terme « post-digital » : le digital a quitté sa phase de Hype et est entré dans son plateau d’implémentation. Dès lors, l’anti-fonctionnalisme porté par le Glitch se développe naturellement, à la mesure de la démocratisation des outils.

(5) Le terme de bug était cependant déjà utilisé depuis plusieurs décennies dans le jargon des ingénieurs.

Save our bit !

Qui ne se souvient de l’œil rouge profond de HAL 9000, la bête noire de David « Dave » Bowman dans le film de Kubrick, 2001, L’Odyssée de l’Espace ? HAL est l’acronyme de Heuristically programmed ALgorithmic computer. C’est aussi celui de l’Hypermedia Art Lab (1).

Stockage d’ordinateurs au sein du laboratoire PAMAL. Photo: © PAMAL / École Supérieure d’Art d’Avignon.

Si le HAL 9000 avait existé, il serait aujourd’hui obsolète. Non que les technologies l’aient aujourd’hui dépassé — elles n’en sont pas encore là —, mais s’il avait vraiment existé en 1968, alors il n’y aurait rien d’étonnant à trouver un HAL 9000 déglingué sur le bord d’un trottoir. Nombreux sont aujourd’hui les ordinateurs et autres machines médiatiques qui ont disparu et, en dehors d’un intérêt historique ou pour les musées d’histoire des techniques, pourquoi les conserver ? Depuis le premier ordinateur, il existe des œuvres d’art produites avec ces machines. Certaines de ces créations, parce qu’elles suscitent l’intérêt du monde de l’art ou de la culture, sont parfois traduites et diffusées par des machines bien différentes de celles pour lesquelles elles avaient été pensées. Jusqu’à quel point les œuvres d’art médiatiques peuvent-elles, au regard des effets sur la réception, passer d’une machine à une autre, comment peuvent-elles être réparées, dupliquées, émulées, migrées, virtualisées, réinterprétées, cultivées, qui sont les solutions habituellement proposées pour leur conservation (2) ?

Le projet HAL 8999 part d’un présupposé qui vient des théories de l’archéologie des média. Le « réflexe » de l’histoire et de la pensée en général consiste à oublier les machines. Ainsi bon nombre de machines médiatiques ont été « oubliées », alors qu’elles ont servi à produire des œuvres d’art. Issue de la théorie des média, l’archéologie des média postule que les machines et leur matérialité conditionnent le produit de la création et de sa réception. L’objectif est de mettre à l’épreuve, à la fois, et ce parti pris et les solutions évoquées plus haut, lesquelles aboutissent souvent à des contresens artistiques. Nous (3) avons alors mis en place un protocole d’étude appliqué à une série d’œuvres d’art (4), dont la conservation interroge le bien-fondé de ces solutions. Dans un premier temps, les œuvres sont activées dans le respect le plus strict de leurs conditions matérielles d’origine. Si cette activation est impossible, nous mettons en œuvre un second original. Ensuite, nous produisons une version émulée, migrée, virtualisée ou cultivée, dans la lignée des solutions habituelles. Enfin, nous proposons, avec l’artiste, une version réinterprétée, réalisée directement sur des machines actuelles. Par exemple, une œuvre conçue pour un Minitel pourra être proposée sur une tablette. Il s’agit dans ce cas de deux œuvres différentes.

Un « second original » pour des œuvres disparues.
Dans les différentes étapes de ce protocole, la plus passionnante à ce stade de nos recherches est celle de second original. « Second original » est une association peu commune de termes, qui selon leur définition respective, sont quasiment antinomiques. « Original » s’utilise en parlant d’une chose qui émane directement de l’auteur, tandis que le terme « second » lui est accolé en droit privé pour désigner le double d’un contrat ou document quelconque signé par le déclarant ou les parties (5). Dans le contexte de notre recherche, cette association de termes prend un sens voisin, bien que très différent. Entre les deux approches citées ci-dessus, notre « second original » ou « double original » serait une version de l’œuvre originale alors que celle-ci, sur sa machine d’origine ou équivalent, a disparu. Le « second original » reprend toutes ses qualités premières (software et hardware), émanant d’une collaboration entre l’artiste et le laboratoire (6). Le « second original » n’est plus à proprement parler une « œuvre », qui pourrait par exemple être vendue, mais une copie constituant une « archive » (7).

Stockage numérique des œuvres confiées au Laboratoire. Photo: © PAMAL / École Supérieure d’Art d’Avignon.

Il faut ici se placer dans un contexte d’exposition et de transmission de l’œuvre. Nous savons d’expérience, laquelle est courte en raison du peu de recul historique concernant ce type d’œuvres, qu’elles sont sensibles aux phénomènes d’obsolescence en plus des variations traditionnelles connues (matérielles, culturelles, etc.). Ces phénomènes d’obsolescence sont d’une telle ampleur qu’ils précèdent bien souvent tous les autres et entraînent des modifications radicales pouvant aller jusqu’à la perte complète de l’œuvre par dysfonctionnement, incompatibilité. Citons ici quelques exemples bien connus tels que l’abandon progressif d’une technologie largement employée par les artistes, tels Flash (8) ou Director (9), pour créer des interfaces et des animations. Nous pourrions aussi évoquer la rupture de compatibilité d’un système d’exploitation à l’autre (10).

Une archive qui sert aussi à retracer le processus de création
La réalisation d’un second original peut s’avérer utile sous deux aspects, en tant que nouvel exemplaire fonctionnel, puis en tant qu’expérience de conception. Le nouvel exemplaire fonctionnel réalise ce que la série promet. En art, comme ailleurs, le nombre fait la force. Plus un objet est reproduit, plus nous avons de chance de le conserver. C’est le choix fait par les responsables de la mémoire des centres de stockage de déchets nucléaires à l’ANDRA, multiplier le nombre d’exemplaires des « mémoires de synthèse pour les générations futures » contenant les informations essentielles (localisation, historique, contenu, etc.) tout en le distribuant au plus grand nombre (11). L’expérience de conception, quant à elle, permet de prendre la mesure des variations technologiques et des phénomènes d’obsolescence en mobilisant des achats de pièces, de logiciels et des connaissances des langages informatiques.

Lors de cette réalisation, la fabrication d’un second original refait l’expérience initiale de conception et éprouve ainsi les ruptures et incompatibilités prévues et imprévues tout en conservant l’intégrité de l’œuvre considérée. La conception de ce second original ne permet pas de préserver l’œuvre sur le long terme, puisqu’il est identique avec le « premier original » (12). Toutefois, il autorise à nouveau l’exposition, de la même manière que l’autorise la copie d’exposition. Tout en réalisant une étape intermédiaire de conservation préventive précédant les stratégies de conservation curative, plus complexes et encore peu expérimentées pour certaines, il est enfin une pièce dans le puzzle d’un écosystème médiatique donné, un élément de lecture et de compréhension en regard des contextes médiatiques, techniques et culturels, qui n’apparaissent que lorsqu’ils dysfonctionnent.

Lionel Broye
artiste et éditeur multimédia, Lionel Broye enseigne à l’École Supérieure d’Art d’Avignon.

(1) Le projet H.A.L 8999 est dirigé par Lionel Broye et Prune Galeazzi.

(2) Cf. Stricot (M.), « Agir (et non pas réagir) », p. 92-95, dans ce même numéro. Cf. son site  : http://digitalis.litchio.com/

(3) Le laboratoire PAMAL (Preservation, Archaeology, Media Art Lab), auquel est rattaché le projet. Il est composé de Stéphane Bizet (physique, électronique), Lionel Broye (artiste, éditeur multimédia), Christophe Bruno (artiste, théoricien), Prune Galeazzi (conservatrice-restauratrice), Emmanuel Guez (responsable du laboratoire, artiste, théoricien), Line Herbert-Arnaud (historienne de l’art).

(4) Les œuvres étudiées sont Angelino d’Albertine Meunier, .jpg printing de Jacob Riddle, Le critique automatique d’Antoine Schmitt, Counter de Grégory Chatonsky, Fascinum de Christophe Bruno, Les Secrets de Nicolas Frespech, DOEK d’Annie Abrahams et (sous réserve à l’heure de la rédaction de cet article) les videotex works d’Eduardo Kac.

(5) « Copie », et « duplicata » sont les termes utilisés indistinctement pour désigner la reproduction manuscrite, mécanique ou électronique d’un contrat ou d’un document quelconque. En revanche, le « double », est un second original signé par le déclarant ou par les parties (source  : www.dictionnaire-juridique.com/definition/copie.php)

(6) Une convention contractuelle permet d’établir clairement les conditions de réalisation d’un « second original » en accord avec (et la participation de) l’auteur et les éventuels propriétaires (privés ou publics).

(7) Cf. Guez (E.), « Exposer des zombies », p.  64-65, dans ce numéro.

(8) Se reporter à l’arrêt du développement de Flash Player pour iPhone et Android au bénéfice du HTML5.

(9) La disparition du CD-Rom qui est le support de destination des projets développés avec Director a rendu désuet tout travail avec ce programme, même si ce dernier s’est vu agrémenté de fonctions Web et 3D. Il faut cependant noter qu’il existe toujours une version fonctionnelle de ce programme chez Adobe, Director 12. Cf. www.adobe.com/fr/products/director.html

(10) C’est le cas avec Rosetta (Mac_OS_X) chez Apple, qui a entraîné l’illisibilité d’un grand nombre de productions artistiques et littéraires.

(11) Source : www.andra.fr/pages/fr/menu1/les-solutions-de-gestion/se-souvenir-19.html

(12) Cependant certaines pièces fabriquées de nouveau aujourd’hui, utilisées pour la réalisation d’un second original et dont la durée de vie nous est inconnue, pourraient s’avérer plus fiables que les pièces d’origine (ex. : la re-fabrication d’anciennes cartes Arduino).

une contribution à l’archéologie de l’informatique

La curiosité est le propre de l’artiste, le passé est « curieux », donc, pour l’artiste, la curiosité pour le passé est inévitable. Dans ma perception de l’art, il n’y a pas de concurrence entre les époques, chaque moment est important, chaque histoire a son intérêt. Pour l’artiste revisiter le passé est aussi capital qu’explorer le futur, dans un cas comme dans l’autre il s’agit de se projeter en dehors de soi et du présent pour imaginer de nouveaux espaces sensibles.

HAL 9000: I’m sorry Dave, I’m afraid I can’t do that, from 2001 A Space Odyssey. Apple II screen capture of 280×192 pixels picture, 2014. Python code « image2HGR », 2014. Photo: © Andres Lozano a.k.a loz

Réactiver les ordinateurs que je trouve parfois sur le trottoir à coté d’une benne à ordure me procure la distance nécessaire pour appréhender l’imaginaire informatique. Quand j’ai réussi à transférer des images captées avec la technologie d’aujourd’hui sur des systèmes et des machines de 30 ans d’âge, la perspective de corriger le « rendez-vous manqué » entre image artistique et esthétique 8-bit m’est apparu. J’essaye toujours de combler ce vide avec mon travail visuel.

On pourrait invoquer un « grain » informatique comme on le fait pour la photo argentique. Mais, ce n’est pas le fond de mon propos. Ce qui retient mon attention dans les images « low resolution », c’est la « parcimonie » avec laquelle on code l’information. Encoder une image en 280×192 pixels et constater que celle-ci conserve l’essentiel de sa structure et de ses effets est surprenant, voire sensuel à la manière des films muets des débuts du cinéma. L’esthétique 8-bit puise énormément dans cet effet de « parcimonie » produit par la pixellisation, c’est quelque chose de magique et qui n’appartient qu’à l’univers informatique, qui, toujours, privilégie les stratégies d’optimisation.

Ingrid Bergman. Apple II screen capture of 280×192 pixels picture, 2014. Python code « image2HGR », 2014. Photo: © Andres Lozano a.k.a loz

Je ne collectionne pas de manière raisonnée les ordinateurs, j’en possède de nombreux, tous ou presque fonctionnels. Les vieux Macintosh (Classic) avec lesquels je m’amuse à surfer sur le Net grâce au premier Netscape ou à retoucher des images avec Photoshop 1.0.7, un Amstrad, un Atari, des Apple II et même un « Replica » (une réplique du mythique Apple I de 1977). Depuis 2006, je relis les innombrables documentations et références techniques pour réussir à faire fonctionner ces machines et à les rendre « communicantes » avec les matériels actuels, un travail de fouille et d’exhumation passionnant et presque inépuisable, car il y a tant d’archives à répertorier et de machines à redécouvrir !

Réunir les programmes de l’époque, trouver les consommables et les pièces de rechange engendre depuis seulement deux ou trois ans un échange très actif sur Internet. Ce mouvement international suscite des rencontres entre hobbyistes, concepteurs, chercheurs, historiens et artistes. Ces échanges sont très informels, la préservation du patrimoine numérique ne fait que démarrer. Il y a un enrichissement certain à s’impliquer dans ce mouvement néo-archéologique, au niveau scientifique mais aussi social en rejoignant une communauté passionnée par le « passé immédiat ».

Rencontre avec Dialector et Chris Marker
Dialector, le robot conversationnel créé par Chris Marker, m’a permis d’expérimenter toutes sortes de dialogues exotiques : dialogue avec une machine, dialogue avec un auteur « invisible », dialogue avec le passé, dialogue d’outre-tombe avec les fantômes de Chris Marker… Grâce à Dialector, j’ai eu de longues conversations avec les esprits d’un temps révolu : les esprits révolutionnaires (de 1917 ou de mai 68), les esprits libertaires de la Silicon Valley pendant la révolution micro-informatique ou encore les esprits irréductibles de la littérature.

Je n’ai pas gardé d’enregistrement de ces instants de dialogue, je ne conserve que les souvenirs brumeux laissés par l’expérience. En parcourant le code de Dialector et en le traduisant dans un autre langage de programmation, j’ai visité l’esprit de Chris Marker, ses régions les plus secrètes, là où la technique et la poésie s’articulent. Un poème est une sorte d’algorithme (Edgard A.Poe). Mais, l’inverse est-il vrai ? Dans un programme comme celui de Dialector où le code et la littérature vivent dans un telle proximité, une fusion s’est-elle produite ? J’aime à le croire. Au cours de la conversion du Basic de Chris Marker en langage Python, de simples déplacements dans le programme se sont convertis en fonctions, comme s’il était possible de résoudre algorithmiquement un mouvement dans un texte, comme si parcourir un texte pouvait s’implémenter dans du code, comme si on pouvait fixer un « geste » artistique.

La Bocca. Generative picture, 2014, 700×310 pixels. Python code « image2mosaic », 2013. Photo: © Andres Lozano a.k.a loz

Dialector c’est l’aventure d’un sauvetage voire d’une résurrection. Quand on y réfléchit attentivement, rien n’est plus fragile et délicat qu’un programme informatique tant celui-ci est tributaire du hardware, du système d’exploitation, des mises à jours, des composants et des périphériques, des autres programmes desquels il dépend, surtout quand on pousse la technologie dans ses derniers retranchements, et, par-dessus tout, lorsqu’on expérimente seul son code sur sa propre machine. Qu’un programme fonctionne tient parfois de la chance, du tour de force. Hélas ! Le bug guette, et la démonstration ratée est alors inévitable. Car ce qui fonctionne chez soi a de fortes chances de ne jamais fonctionner ailleurs.

Pour faire fonctionner de nouveau Dialector, en coopération avec Annick Rivoire et Agnès de Cayeux, il a fallu reconstituer un éco-cyber-système vieux de 25 ans. Autant dire recréer Jurassic Park pour de vrai. Comme un puzzle nous avons cherché et retrouvé chaque pièce matérielle, chaque particularité du système d’exploitation et enfin assemblé le tout avec le programme de Chris Marker. Sans parler des quelques défauts inhérents au statut de copie de travail de la disquette qui était en notre possession…

Rachel from Blade Runner. Apple II screen capture of 280×192 pixels picture, 2014. Python code « image2HGR », 2014. Photo: © Andres Lozano a.k.a loz

Vintage Computing
Utiliser de vieux ordinateurs me fait retrouver le sentiment le plus précieux de l’informatique : le merveilleux. Comme naguère les automates à Versailles, l’ordinateur, parce qu’il est un objet animé d’une sorte de volonté autonome, me fascine depuis les premiers jours. Plus les ordinateurs se fondent dans l’univers contingent de l’utilitarisme ordinaire moins ils m’intéressent, plus ils sont simples à utiliser moins ils ont de personnalité. Le seul ordinateur séduisant est celui qui nous résiste.

Pourquoi un sculpteur comme Richard Deacon convoque Nicolas Poussin pour expliciter son travail dans le champ de l’art contemporain ? Une informatique obsolète peut-elle nous enseigner quelque vérité sur l’œuvre d’art à l’époque de sa numérisation cybernétique ? J’en ai l’intuition mais pas encore la preuve. Peut-être qu’il s’agit, dans un rapport plus intime, de nourrir une relation privilégiée avec le code, une relation débarrassée des contraintes de performance et d’innovation. Hors du temps de l’innovation nous pouvons accéder à une certaine sagesse et contempler le travail accompli.

Nous vivons sans doute un épuisement du miracle numérique. C’est pourquoi j’ai désormais du mal à parler de « nouvelles technologies » tant celles-ci me semblent ordinaires. Cela explique peut-être aussi mon engouement pour le « vintage computing ». Les vieilles machines sont les seules à incarner authentiquement l’esprit révolutionnaire de l’informatique, elles nous racontent l’aventure des pionniers, leurs combats et leurs conquêtes. Ces machines évoquent indéniablement une époque « héroïque » qui nous permet d’édifier une mythologie. Et de ce point de vue, l’univers numérique est traversé par quelque chose de complètement nouveau pour lui : l’Histoire.

Andrés Lozano.
publié dans MCD #75, « Archéologie des médias », sept.-nov. 2014

Andrés Lozano (a.k.a. Loz) n’est pas qu’une figure « historique » de l’art du web, il est aussi un archiviste, un archéologue, l’un des premiers à s’être emparé du passé informatique, autant pour le maintenir à l’existence que pour le recycler artistiquement. > http://andre-lozano.org/