la réussite des technologies mises au service du développement local

Les technologies de l’information et de la communication (TICs) prennent une place toujours plus importante dans notre quotidien, mais cette intégration se heurte à un ensemble de contraintes auxquelles, le plus souvent, on accorde trop peu d’importance. L’utilisation en Afrique des technologies des pays développés ne peut se faire sans une prise en compte de notre écosystème, des réalités socio-culturelles et des besoins des populations locales. Ainsi, l’innovation sera nécessaire, non pas dans le sens de recréer des technologies déjà existantes ailleurs, mais en adaptant ces dernières à nos réalités, afin de produire des solutions utiles pour le développement local.

Acacia-CRDI. Simulation avec des étudiants en zone rurale. 2007. Photo : © Moussa Déthié Sarr.

Au fil des années, les TICs se sont imposées dans nos pays d’Afrique subsaharienne, facilitant l’accès à l’information, haussant la productivité des entreprises et de l’administration, permettant un renforcement de l’éducation dans l’enseignement supérieur, et améliorant des gestes dans le domaine de la santé. Cette adoption des TICs est surtout possible grâce à un certain nombre d’outils principalement orientés dans le domaine de la communication, tels que les solutions logicielles, Internet, les réseaux et terminaux mobiles.

Mais il faut noter que cette appropriation des TICs est beaucoup plus orientée vers le milieu urbain et surtout les populations alphabétisées. Selon l’Institut de statistiques de l’UNESCO, 58% de la population sénégalaise vit en milieu rural et, sur le total de la population, on compte 49,7% d’analphabètes chez les adultes et 65% chez les jeunes. Donc, il est devenu plus que nécessaire de prendre en compte les zones rurales et les populations illettrées dans l’intégration des TICs en Afrique subsaharienne. À cela s’ajoute un écosystème des TICs qui présente des limites en termes de connectivité Internet : les coûts élevés des moyens et outils de communication par rapport aux revenus des populations locales. Nous pouvons prendre l’exemple de la connexion Internet qui, pour un débit 16 fois plus élevé, est vendue moins cher par Orange France que par Orange Sénégal (8 Mo à 21 € contre 512 Ko à 22,14 €).

Face aux obstacles socio-culturels et technologiques, il sera impératif de partir du besoin des populations locales, avec prise en compte de ces contraintes, pour que soit menée une bonne politique d’intégration des TICs. Cette politique pourra ainsi se baser sur le concept des technologies au service du développement ou « ICT4D », l’acronyme anglo-saxon (1). Le concept d’ICT4D repose sur la théorie que les TICs favorisent le développement d’une société. En plus de leur rapport aux TICs de manière générale, les ICT4D requièrent une compréhension du développement communautaire, de la pauvreté, de l’agriculture, du secteur de la santé et de l’enseignement de nos pays en voie de développement. Les ICT4D ont connu une progression fulgurante ces dernières années en Afrique grâce aux financements obtenus. Mais selon la chaire de l’Unesco en ICT4D, la plupart des initiatives de TICs implémentées en Afrique échouent.

Les TICs pour l’agriculture (3ème photo du concours Elearning Africa, 2012). Solution mobile pour l’agriculture. 2011. Photo : D. R.

Selon une étude menée par les chercheurs du projet Edulink-Alanga, à l’Université d’Eastern Finland, les causes de cet échec sont diverses. Cependant, la première d’entre elles réside dans le montage de projets qui ne sont pas réalisés aux bons endroits, c’est-à-dire dans des pays où les défis et les besoins locaux des populations cibles ne sont pas suffisamment maîtrisés pour être pris en compte par de tels projets. En effet, la non-implication des populations concernées par la conception et la restitution des outils et services des TICs qui leurs sont destinés constitue un facteur bloquant dans le processus d’appropriation d’un outil TIC. Parmi d’autres causes de cet échec, il faut citer le manque d’évaluation de l’impact économique de ces outils et services sur les activités économiques quotidiennes des populations. Ces différentes observations amènent à soutenir la thèse que l’unique moyen de mener à bien les projets ICT4D est de passer par une innovation technologique contextuelle aux milieux concernés. Cette Innovation reposera sur des bases simples, telles que la prise en compte des besoins des populations, de l’impact économique et de l’écosystème des TICs, qui, quand ils sont négligés, conduisent à l’échec des ICT4D.

Le sens de l’innovation technologique ne réside pas dans une nouvelle invention de la roue, mais plutôt dans sa réadaptation à nos besoins dans le cadre des ICT4D. Cette innovation technologique ne doit pas être perçue comme un concept compliqué, car son essence même réside dans la simplicité des solutions. Très souvent, les populations ciblées ont des besoins simples, tels que l’accès à l’information; nous pouvons citer aussi l’exemple du système d’information géographique (SIG), développé dans le cadre du projet Acacia à la Faculté des Sciences et Techniques de l’Université Cheikh Anta Diop de Dakar (UCAD), en partenariat avec le CRDI (Centre de Recherche pour le Développement International). Dans ce projet il a été mis en place un SIG mobile pour la gestion des ressources pastorales au niveau des unités de Thiel et de Kouthiaba, au Sénégal. Cette application avait permis aux éleveurs d’avoir une information en temps réel de l’état des points d’eau et des chemins appropriés pour la transhumance, à partir d’un système de communication basé sur les SMS.

Ainsi, partant d’un besoin simple des populations et capital pour la survie du bétail, une solution basée sur des médias à faible coût, tels que SMS et téléphones, a été mise à la disposition des populations locales, après qu’elles ont été fortement impliquées dans le processus de conception et de déploiement. Il nous faut préciser que si les besoins des populations locales peuvent être similaires à ceux des pays développés, les méthodes utilisées pour y subvenir doivent être remodelées dans la pratique. La monétique est l’un des secteurs qui illustre le mieux ces besoins communs et, au Sénégal, le service Orange Money, de l’opérateur de télécommunications, permet à partir d’un compte créé avec un mobile de faire, en tous lieux, des dépôts d’argent, des transferts aux proches, la consultation du solde, des paiements de factures, le remboursement d’une échéance de prêt micro-crédit, et le débit d’argent. Cette méthode innovante permet, par des gestes simples, de faciliter le quotidien des populations locales avec uniquement un téléphone portable, qui est le support de communication le plus utilisé dans toutes les couches sociales et toutes les classes d’âges.

Acacia-CRDI. Tests réalisés par des utilisateurs sur l’application Magasin de bétail pour réserver des produits. 2007. Photo : © Babacar Ngom.

Prendre en compte l’écosystème des TICs de nos pays dans la recherche de solutions ne peut qu’être source d’innovation technologique, sachant que des problématiques comme la connectivité Internet n’existent pas dans les pays développés. Dans cette optique, des travaux de Recherche et Développement, menés dans le cadre d’un partenariat entre la Coopération française U3E et le Centre de Calcul Informatique de l’UCAD, ont abouti à la mise en place d’une solution de suivi des formations en ligne en utilisant un mode déconnecté, pour pallier ce problème d’accès à Internet et permettre la réduction des coûts à travers la réduction de flux. Un système de notification par SMS intégré à cet outil facilite la communication d’informations aux étudiants. Un parfait modèle de prise en compte de l’écosystème des TICs pour leur intégration dans le secteur de l’enseignement (acronyme : TICE, TIC pour l’Éducation).

Le défi de l’intégration des TICs en Afrique subsaharienne repose principalement sur la nécessité de dépasser les limites socio-culturelles, économiques et technologiques pour en faire un rempart solide du développement local. Le recours à l’innovation technologique sera un moyen incontournable, face à ces limites, pour mener à bien des stratégies ICT4D efficaces. Une remarque particulière peut être faite sur les terminaux mobiles qui illustrent l’innovation technologique. L’usage du mobile par toutes les couches sociales et classes d’âges, implique qu’un intérêt particulier doive être porté sur les solutions qui l’utilisent, si l’on veut toucher une partie importante des populations. Une bonne politique ICT4D ne peut être menée sans la prise en compte des besoins et contraintes locales, et sa réussite est assurée lorsqu’elle est mise en œuvre par les populations locales pour les populations locales, et là réside toute l’essence de l’innovation technologique.

Babacar Ngom
publié dans MCD #71, « Digitale Afrique », juin / août 2013

Babacar Ngom est ingénieur Informaticien au Centre de Calcul Informatique de l’UCAD. Chef de la Division Elearning. Responsable de projets Recherche & Développement

(1) ICT4D : Information and Communication Technologies for Development, les TICs au service du développement.

Kër Thiossane, villa pour l’art et le multimédia au Sénégal, se définit comme un espace culturel dédié à l’expérimentation artistique et sociale. En wolof, « kër » signifie la maison et « thiossane » la culture traditionnelle sénégalaise. Ce lieu de recherche, de résidence, de création et de formation encourage l’intégration du multimédia dans les pratiques artistiques et créatives traditionnelles, et soutient le croisement des disciplines.

Mosaïque alternative réalisée à Kër Thiossane. Par Mushana Ali et Kan-si, détail. 2012. Photo : © Antoine Louisgrand / Kër Thiossane.

Kër Thiossane a débuté ses activités à Dakar en 2002. En 2003, grâce au soutien de la fondation canadienne Daniel Langlois pour l’art, la science et les nouvelles technologies, l’association ouvre un espace public numérique afin d’offrir aux Sénégalais un lieu de partage et de réflexion autour de l’art et des technologies numériques, en proposant résidences, formations, rencontres et ateliers. Il s’agit du premier laboratoire pédagogique artistique et transdisciplinaire lié aux pratiques numériques et aux nouveaux outils de communication en Afrique de l’Ouest.

En 2008, est créée la première édition du festival Afropixel sur les logiciels libres liés aux pratiques citoyennes des pays du « Sud ». En 2012, la 3ème édition s’est déroulée autour des Biens Communs, abordés via l’angle des technologies numériques et de la création artistique en Afrique. Depuis ses débuts, Kër Thiossane développe les échanges et les collaborations avec des structures du continent africain et tisse aussi des liens avec d’autres continents, dans une perspective Sud-Sud.

Atelier Demodrama Faces réalisé avec l’Ambassade d’Espagne au Sénégal. 2011. Photo : © Kër Thiossane.

Ainsi sont mis en œuvre des projets internationaux de coopération, tels que Rose des Vents Numérique. Développé de 2010 à 2012, avec le soutien du fonds ACP Cultures de l’Union Européenne et de nombreux partenaires, ce projet a eu pour objectif de développer la coopération artistique numérique et partager des connaissances techniques, culturelles et artistiques, entre le Sénégal, le Mali, l’Afrique du Sud et les Caraïbes.

Mené en partenariat avec notamment le Collectif Yeta au Mali, Trinity Session en Afrique du Sud, l’OMDAC en Martinique, ou encore le CRAS (Centre de Ressources Art Sensitif, Mains d’Œuvres) en France, Rose des Vents Numérique s’est articulé autour de différentes actions phares : les festivals Afropixel (Dakar, mai 2010) et Pixelini (Bamako, octobre 2011); plusieurs formations autour des logiciels libres; six résidences croisées d’artistes d’Afrique et des Caraïbes; la participation au 8ème Forum des Arts Numériques de Martinique (OMDAC); et la création de Ci*Diguente.

Valise pédagogique développée à Kër Thiossane dans le cadre du projet Rose des Vents Numérique. 2010. Photo : © Kër Thiossane.

Car à l’issue de Rose des Vents Numérique, il était nécessaire de créer et entretenir un espace de partage et d’échanges entre les acteurs impliqués, afin de permettre à la dynamique de réseau mise en œuvre de perdurer et de s’élargir. Ainsi est née Ci*Diguente, en wolof « au milieu des choses », « dans un entre-deux », qui fait écho à cet espace de rencontre entre les continents, les disciplines et les savoirs. Cette plate-forme de ressources est principalement dédiée aux artistes et acteurs de l’art numérique en Afrique et Caraïbes, et est aussi ouverte à tous; les ressources sont librement disponibles dans le respect de la licence Creative Commons et chacun peut y proposer ses articles en créant son propre compte.

Marion Louisgrand, initiatrice de Kër Thiossane, ajoute: en Afrique, à l’exception de l’Afrique du Sud, la création numérique est un courant encore nouveau, où les manifestations et expositions qui y sont consacrées sont encore rares ; les structures et écoles susceptibles d’accompagner les artistes africains et capables d’accueillir des expositions sont peu nombreuses.

Si produire ou exposer les œuvres multimédias nécessite la mise en œuvre de moyens matériels pointus, et donc onéreux, Kër Thiossane et les acteurs de son réseau ont pris le parti de développer sur leurs territoires des projets privilégiant les « basses technologies », le « faites-le vous-même », mettant l’accent sur la relation entre création, recherche et espace public.

publié dans MCD #71, « Digitale Afrique », juin / août 2013

 

> www.ker-thiossane.org

négocier une culture mondiale

Cet article met en résonance l’Altermodernisme, une théorie esthétique développée par Nicolas Bourriaud, et des artistes numériques sud-africains, et établit un cadre pour l’art numérique actuel en Afrique du Sud. Plus précisément, il examine les rôles de Nathaniel Stern et Marcus Neustetter (1) en tant qu’artistes, et de Tegan Bristow (2) en tant que commissaire et chercheuse. Cet article propose (ou suggère) à la pratique future dans ce domaine en Afrique du Sud un socle critique alternatif et, ce faisant, il vise à alimenter et étendre le débat sur ce sujet.

Relation IV (détail). Marcus Neustetter. Exposition In Motion (2010). Photo: © Marcus Neustetter.

L’Altermodernisme est une théorie esthétique globale qui intègre des cultures multiples et leur permet de coexister sur un pied d’égalité. La théorie de l’Altermodernisme, définie par Bourriaud et principalement exposée dans son ouvrage Radicant (2010), se base sur ses observations de la dynamique globale et de la pratique artistique contemporaine, dans un monde perçu comme « dé-centré » et dominé par la mondialisation. La théorie de Bourriaud constitue un point de départ qui permet aux artistes de s’émanciper du postmodernisme et du postcolonialisme. L’Altermodernisme rejette les modèles multiculturels revendiqués par le postmodernisme et le postcolonialisme en faveur d’un nouveau modernisme qui permet aux cultures d’être restituées sur un pied d’égalité et considérées comme « l’autre ». Il affirme qu’il s’agit de remplacer la question de l’origine par celle de la destination. Bourriaud suggère un niveau de compréhension et de transfert entre les cultures grâce à la coopération et à la discussion.

Les praticiens altermodernistes sont capables de traverser les cultures dans le temps et l’espace. Ils surfent sur différentes cultures par le biais d’équivalents qui leur permettent de comprendre et d’utiliser des signes différents. Bourriaud décrit le mouvement de l’artiste radicant comme celui qui est en mesure de développer des racines multiples au cours de son voyage, dont l’origine n’est plus considérée comme l’élément de focalisation. Au contraire, le point focal devient la destination. Dans l’ensemble, Bourriaud perçoit ce monde « dé-centré » comme permettant à la pratique d’un artiste de s’épanouir dans une nouvelle direction.

L’avènement de la mondialisation est le point de départ de l’élaboration théorique de Bourriaud. Il le considère comme un facteur qui influence la production artistique et provoque un changement dans les modes de pensée et d’évolution au sein du paysage culturel. Pour Bourriaud, la mondialisation a eu le même effet sur le contexte actuel que l’industrialisation sur le modernisme. Cette évolution est nourrie par le réseau de télécommunication complexe qui s’est développé en parallèle à la mondialisation, comme un résultat du capitalisme. La dynamique de l’Altermodernisme offre la possibilité d’échanger dans plusieurs langues et cultures et d’établir des correspondances.

Compte tenu de sa nature intrinsèque et de la manière dont on y accède, le support numérique est étroitement lié à la mondialisation sans nécessairement se limiter à la culture d’une région ou d’un pays donnés. L’aspect fondamental de l’art numérique est son interactivité, une interaction à la fois physique et psychologique (à l’opposé des sensibilités contemporaines). Selon Christiane Paul, la nature interactive du support offre une forme particulière d’esthétique qui se traduit par des récits, des voyages et des œuvres dynamiques, en phase avec la théorie de Bourriaud. L’Altermodernisme offre un cadre à ce support et lui permet de développer son propre discours au sein de la culture contemporaine.

Le domaine de l’art numérique sud-africain est beaucoup plus confidentiel, restreint et exclusif que l’art numérique international. Le support revêt des tendances exclusives, aussi bien pour ceux qui pratiquent que pour ceux qui voient, qui sont capables de comprendre et d’apprécier un travail qui requiert un certain degré de connaissances techniques et numériques. La nécessité préalable de cette connaissance est admise à la fois par Neustetter et Bristow et souvent considérée comme un obstacle par ces deux acteurs du numérique.

Given Time. Nathaniel Stern. Ross et Felix, vus dans Second Life. Photo: © Nathaniel Stern.

Neustetter, Stern et Bristow sont tous relativement mobiles, ce qui se retrouve à la fois dans leurs œuvres et leur pratique. Stern, qui a initialement vécu aux États-Unis, s’est installé à Johannesburg en 2001, où il a pu approfondir sa connaissance de l’art numérique et a commencé à alimenter et développer le discours autour de l’art numérique en Afrique du Sud. Rentré aux États-Unis, ces deux points d’ancrage ont aidé Stern à initier un dialogue autour du discours et du support. De même, les connexions multiculturelles de Neustetter et les nombreux voyages internationaux liés à sa pratique contribuent au discours élaboré autour de son travail.

Bristow, qui elle aussi vit principalement en Afrique du Sud, a enseigné au Japon et voyage beaucoup à travers l’Afrique pour mener des recherches liées à son doctorat. Bristow est à la fois influencée par son propre mouvement et la traversée de cultures différentes, et par celui des artistes qu’elle sélectionne, tandis que ces mêmes artistes ne sont affectés que par leur propre mobilité. Ces acteurs du numérique se déplacent au-delà d’un usage du support numérique, vers un sens construit par rapport à la globalité. Cette mobilité et la traversée des cultures et des zones géographiques reflètent le monde habité tel que décrit par Bourriaud.

Dans son œuvre Given Time (Temps donné) (2010), Stern utilise l’environnement du réseau social immersif Second Life comme plateforme et cadre de son travail artistique. Dans Second Life, il met en scène deux avatars qui sont amants et qui flottent dans les airs, presque complètement immobiles, les yeux rivés sur l’interface de l’autre. Cette œuvre est présentée par le biais de deux grandes projections vidéo des avatars sur des murs se faisant face, chacun montré du point de vue de l’autre. Ils deviennent alors des personnages, des « acteurs ». Le spectateur pénètre dans cet espace entre les deux amants, mais l’échange entre les avatars est éternel, jamais perturbé par ce visiteur qui devient voyeur de leur échange. Le monde virtuel auquel il participe à travers les avatars dépend en fait de lui. Le dialogue établi entre les deux avatars est entièrement détourné du domaine physique.

Le travail de Neustetter avec les connexions est illustré dans son œuvre relation IV, incluse dans l’exposition In Motion (2010). Cette œuvre est une impression numérique de performances réalisées avec un logiciel sensible à la lumière. Le logiciel, développé par Bristow, permet à Neustetter de produire un tracé numérique lumineux des performances. L’image d’ordinateur est utilisée pour suivre la lumière et dessiner une ligne allant d’une lumière particulièrement brillante à la suivante, créant ainsi un dessin de lumière. Neustetter s’est rendu compte qu’il dessinait l’espace… autour des choses, que la source de lumière pouvait se connecter et que, au fond, il captait le temps et l’espace en observant l’espace négatif autour des objets ou des mouvements (interview). La ligne semble ainsi former des connexions et un itinéraire semble être transposé par le logiciel.

Le mode de commissariat de Bristow résulte de sa recherche. Ceci transparaît dans l’exposition Internet Art in the Global South (l’art d’Internet dans le Sud global) (2009), dont elle a été commissaire pour la Joburg Art Fair en 2009. Cette exposition (3), qui est encore visible aujourd’hui, se compose d’un site Web autour d’un dispositif de visualisation et de liens vers des œuvres sur Internet issues de divers pays du Sud, principalement d’Amérique du Sud, d’Inde, de Corée et d’Afrique du Sud. Bristow a utilisé le réseau international Upgrade (un réseau mondial de militants associatifs et d’artistes du numérique) comme plateforme pour inviter les artistes à soumettre des œuvres d’art, sélectionnées sur la base de lignes thématiques similaires. Cette mise en réseau et la méthode utilisée pour le commissariat illustrent la façon dont le support permet d’établir un dialogue global. C’est l’une des premières collections marquantes de Netart dans les pays du Sud et qui aborde la question cruciale du support quand il s’agit de la marginalisation et des avancées du monde premier. Une collection comme celle-ci permet une approche critique du support dans une perspective adaptée à la fois aux artistes et aux spectateurs.

Internet Art in the Global South. Capture d’écran du site : www.digitalarts.wits.ac.za/jafnetart/. Avril 2013. Photo: D.R.

Bien que le projet ait été présenté dans le cadre d’une manifestation d’art contemporain, Internet s’est avéré un support peu attrayant pour le public. Ce sentiment se retrouve dans l’ensemble des galeries et la partie commerciale de la scène sud-africaine de l’art contemporain. Ce constat étant fait, l’exposition en ligne, après la Joburg Art Fair, s’est avérée être une ressource intéressante et un reflet du support utilisé dans les pays du Sud. La nature du support permet aux réseaux de se constituer du fait qu’Internet est intrinsèquement fondé sur des hyperliens et de l’hypertexte qui créent des connexions et font circuler les informations. Bristow envisage de réitérer cette expérience à plus grande échelle.

Les deux artistes œuvrent à générer la narration à travers l’information, et des liens se tissent entre les œuvres d’art qui accompagnent le spectateur dans un voyage à travers un espace-temps donné. La perception de leur propre position globale en tant que citoyens du monde (selon Neustetter) permet un engagement ciblé vis-à-vis des concepts tels que la cartographie, le déplacement, les réseaux, la translation et les récits. Il en est de même pour le commissariat d’art et la recherche relative au support que sont les autres activités de Bristow.

La théorie de Bourriaud ne s’applique pas seulement à la pratique artistique, elle est aussi le reflet d’une dynamique mondiale. Elle suggère la manière dont cette nouvelle modernité et la mondialisation pourraient être abordées par des artistes. Dans son article Deriving Knowledge (Connaissance dérivée) (2009), Sarah Smizz observe que le déplacement devient une méthodologie et un point de vue par opposition à un style. L’Altermodernisme ne définit pas nécessairement un style esthétique ou une « tendance » spécifique, mais plutôt un mode de pensée et de perception qui devient une esthétique. Cette esthétique est présente dans les œuvres de Neustetter et Stern tout comme dans le commissariat de Bristow et son approche du support. Smizz ajoute que l’Altermodernisme permet aux artistes des nouveaux médias (beaucoup se référant à l’hyperlien/hypertexte comme processus de pensée) de se connecter à des récits et à une translation dynamique, ainsi qu’à des thèmes récurrents ancrés dans l’œuvre des praticiens.

Bien que cette théorie soit juste à bien des égards et qu’elle offre des éclairages pertinents, l’Altermodernisme reste quelque peu idéalisé. La théorie de Bourriaud ne saurait être décrite comme fondamentalement « erronée », mais elle recèle deux aspects problématiques. D’abord, les aspects de la théorie de Bourriaud qui englobent et incluent tout font de l’Altermodernisme un postulat quelque peu irréaliste. Ensuite, Bourriaud a conçu une théorie générale à partir du « centre » sur une dynamique globale qu’il perçoit comme existant dans un monde « dé-centré ». Tout le monde n’a cependant pas la possibilité d’évoluer dans ce monde « dé-centré » décrit par Bourriaud; tous ne sont pas capables d’adopter le style de vie mobile qui aboutit à l’Altermodernisme et certaines personnes sont obligées de migrer et de voyager à travers les continents. Cette mobilité est très différente de celle décrite par Bourriaud et de la mobilité des praticiens cités en exemple.

Il se peut que l’Altermodernisme ne concerne pas autant de personnes que Bourriaud le pense. Si l’on adopte cette théorie, on se doit d’en considérer les écueils. Il serait en outre utile d’affiner son adaptation critique si on souhaite l’utiliser comme cadre de réflexion. Elle forme toutefois un cadre essentiel pour l’art numérique et plus particulièrement pour les artistes d’Afrique du Sud qui évoluent dans une société multiculturelle et multilingue. Le support numérique offre aux praticiens un moyen alternatif de découvrir des cultures différentes, d’un point de vue à la fois géographique et historique. Les artistes dont on parle ici explorent des thèmes rendus accessibles par une dynamique et une culture mondiales. La théorie Bourriaud illustre ce point et permet de se mouvoir à l’intérieur de cette dynamique et au-delà.

Carly Whitaker
Spécialiste de l’interaction numérique, artiste, enseignante et chercheuse à l’Université du Witwatersrand (Johannesburg, Afrique du Sud)
publié dans MCD #71, « Digitale Afrique », juin / août 2013

Rencontres d’Arts Visuels de Yaoundé

Serge Olivier Fokoua, directeur des RAVY, cerne ainsi son événement : jusqu’où peut aller l’art en train de se faire? Quelle est la part de l’Afrique dans ce rendez-vous de l’art actuel? L’un des objectifs de ces Rencontres est de permettre des échanges entre artistes d’ici et d’ailleurs. Créer un réseau dynamique de partage des savoirs et des compétences.

Em’kal Eyongakpa. Installation vidéo. RAVY 2012. Photo : © Les Palettes du Kamer.

Les Rencontres d’Arts Visuels de Yaoundé (RAVY), nées en avril 2008, ont présenté leur 3ème édition en 2012. Elles sont organisées par Les Palettes du Kamer, une association d’artistes plasticiens camerounais fondée en 2004.

La mission des RAVY est de promouvoir l’art contemporain, au Cameroun et en Afrique, en s’entourant de créateurs émergents et confirmés, d’artistes de nombreuses nationalités et disciplines (peintres, sculpteurs, photographes, vidéastes, performeurs, etc.), dont la démarche artistique est innovante. À travers des expositions, performances, colloques, ateliers et conférences, il s’agit de faire venir l’art à la rencontre du public. Le festival permet au public de Yaoundé d’appréhender de nouveaux discours sur la société moderne, des thématiques engagées, subtiles ou poétiques.

Marcio Carvalho (Portugal). Performance et installation vidéo. RAVY 2012. Photo : © Jean-Marc Gayman.

Suite à l’atelier organisé par Em’kal Eyongakpa (1) avec 7 artistes multimédias, à l’Institut Français de Yaoundé, un projet collectif sur le thème « Couloirs » a été présenté au festival RAVY. Des postures, attitudes et comportements urbains ont été filmés puis juxtaposés pour être projetés sur des écrans disposés dans un espace. Lors du vernissage, un récital de poésie a accompagné cette installation.

Les RAVY sont financées par les cotisations des membres de l’Association, ont le soutien du Ministère camerounais de la Culture, d’organisations internationales et de fondations privées. Ce festival s’appuie aussi sur un réseau de structures locales et internationales. Le choix des artistes se fait via des commissaires partenaires, en collaboration avec des festivals et centres d’art, tels que le CRANE_Centre de ressources, au Château de Chevigny (Côte d’Or, France).

Serge Olivier Fokoua. Photo : D.R.

Or, selon Serge Olivier Fokoua, les RAVY s’inscrivent dans un contexte très difficile, où les arts visuels occupent une place secondaire dans la fourchette des disciplines artistiques, tant pour le public que pour les institutions nationales. Les artistes africains avec lesquels nous travaillons sont des passionnés, mais les résultats sont souvent lents. C’est dans le désir de booster ce secteur créatif que nous avons voulu créer des plates-formes d’expression et de promotion des arts visuels. Dans l’art numérique, beaucoup d’artistes manquent cruellement de matériel adéquat pour pouvoir exprimer ce qu’ils ont au fond d’eux. Et quand il leur arrive de réaliser des projets, les occasions de les montrer sont rares.

Aussi, le projet RAVY se positionne-t-il comme une vitrine pour redonner du vent à ce secteur de l’art qui bat de l’aile. Cette opération, aux effets multiplicateurs, permet non seulement de dénicher des artistes talentueux, mais aussi d’assurer leur promotion de manière durable à travers le tissu relationnel d’ici et d’ailleurs que sont galeries, centres d’art, foires, ateliers ou résidences.

publié dans MCD #71, « Digitale Afrique », juin / août 2013

> www.ravyfestival.org

vers un usage militant des « écritures du peuple »

Cet article présente les rares archives existantes sur le champion de boxe Andrew Jeptha. Malgré sa réussite internationale en tant que premier boxeur noir à avoir gagné un titre britannique en 1907, il n’est « visible » dans les archives qu’à travers un petit livre retraçant le parcours de sa vie, et une photographie comportant un autographe. Le texte manuscrit et des éléments du texte de la brochure vont être adaptés, par l’auteur de cet article, en une police de caractères nommée Champion Jeptha Script.

Premières pages de la publication d’Andrew Jeptha. Bibliothèque Nationale d’Afrique du Sud. Photo: © Kurt Campbell.

Cette réaction créatrice vis-à-vis des fragments qui se trouvent dans les archives défie les conventions en matière de recherche historique, en inscrivant Jeptha dans le présent, ce qui représente une sorte de « retour ». Cette désobéissance épistémologique, en accord avec les approches radicales d’autres études, accroît le défi rencontré face aux archives coloniales qui adoptent trop facilement la règle du « seulement des preuves authentiques » et son corollaire: le silence. La pratique émergente dont il est fait état est ce que l’auteur appelle les « écritures du peuple » (folk-scripting), la volonté de perfectionner et répandre l’écriture d’une « personne ordinaire », bien que remarquable, sous forme numérique à l’attention des communautés actuelles et futures.

Il est révélateur que les documents historiques sur Andrew Jeptha dans les archives sportives britanniques et sud-africaines soient rares. La seule trace complète d’archivage qui existe est une brochure unique auto-éditée par Jeptha [image 1], à la Bibliothèque Nationale du Cap, qui s’intitule : A South African Boxer in Britain (Un Boxeur sud-africain en Grande-Bretagne). Ce document est important en tant que texte et objet. La brochure, d’abord, comme support visuel, matériel, nous transmet un « visage » de Jeptha. Pour aborder ce témoin de l’éphémère, les cadres conceptuels de Luciana Duranti (3) sont particulièrement pertinents. Duranti encourage la pratique d’un archivage qui étudie la genèse et la transmission de documents, ainsi que leur relation avec leur créateur. Cette façon de penser à propos de textes existants que nous rencontrons définit les « documents » comme des « monuments », à savoir que le document n’est pas seulement une réserve de données, il est en soi une source (4). Une approche aussi spécifique que celle-ci prend en compte tous les éléments du document, non seulement comme le moyen de parvenir à un but : lire le texte, mais en ce qu’il offre la structure pour une idéation qui s’étend à partir et au-delà du document.

La voix des lettres imprimées rencontrées initialement dans la publication, n’est pas moins importante pour se représenter Jeptha que l’autographe lisible sur sa photographie [image 2], qui offre un lien direct et personnel avec le sujet. En fin de compte, les écrits de Valéry sur le livre mettent en avant les éléments textuels dans les livres comme points de départ décisifs d’une analyse visuelle : Je l’ouvre : il parle. Que je le referme, il redevient une chose des yeux ; il n’est donc rien au monde qui soit plus analogue à un homme […] Il a un aspect physique. Son extérieur visible et tangible qui peut être aussi quelconque que particulier, aussi hideux que plaisant, aussi insignifiant que remarquable que n’importe quel membre de notre espèce. Quant à sa voix qui est entendue dès qu’il s’ouvre […] n’est-elle pas présente dans la police de caractères utilisée… (5)

La police de caractères Champion Jeptha Script testée sur le système d’exploitation Mac OS (Apple Macintosh). Photo: © Kurt Campbell.

Si nous acceptons la possibilité que le livre dans sa forme propre et la photographie signée constituent un « personnage » particulier, cette pensée montre comment l’érudition, appliquée spécifiquement et de manière volontaire à des archives visuelles de Jeptha, pourrait opérer. Un « retour » symbolique d’Andrew Jeptha peut ainsi avoir lieu sous la forme radicale d’une typographie faite sur mesure. Les éléments visuels de Jeptha, livret et photographie signée, deviennent à la fois champ d’analyse et champ d’action. Le rôle de la typographie comme clé historique et instrument de création est considéré ainsi par Shloss : Une autre manière de parler de typographie, ou des conditions matérielles d’un texte, pourrait être de l’identifier comme un système de signes ou un code […] Les polices de caractères peuvent fournir des visuels analogues au texte… (6)

Jeptha, complètement aveugle à l’âge de 35 ans, suite aux blessures reçues lors de ses combats, regretta plus que tout son incapacité à pouvoir lire et écrire sa propre histoire. La création d’une police qui serve à d’autres personnes pour écrire ou lire cette histoire constitue un acte profondément « évocateur ». Dans le premier paragraphe du livret, Jeptha décrit le mode opératoire utilisé pour narrer les événements : Un petit mot sur la forme que prend ce fascicule. J’avais pris l’habitude de griffonner des notes de temps en temps, sous forme d’une écriture abrégée (suffisamment compréhensible pour moi, si je pouvais voir, mais dénué de sens pour toute autre personne). Des coupures de presse de l’époque décrivant mes nombreux combats avaient également été regroupées et elles remplissaient deux grands albums. À cela s’ajoutaient de nombreux extraits d’articles de journaux en vrac que je n’avais pas eu l’occasion de coller.

Un défi typographique est lancé dans le paragraphe précédent : développer une police qui réponde aux deux systèmes d’écriture dont parle Jeptha et qui reproduise son histoire. Il y a la forme des caractères propre aux journaux à grand tirage, et l’écriture personnelle, particulière (et courante) de l’écrivain. Cette méthode de travail, qui consiste à reconnaître « la trace textuelle » de Jeptha dans les archives, met en place la police Champion Jeptha Script comme une production visuelle qui défie l’idée de « garder en mémoire » un individu. La racine memorial [du mot anglais utilisé par l’auteur] connote le concept de « marque mémorielle ». La typographie en tant que discipline est capable d’exploiter cette idée de façon unique : les lettres servant à la fois de texte et d’image, des formes imprégnées de la résonance radicale (ancrée dans ses racines) d’une personne dans un espace-temps donné.

L’Autopen (autostylo). Avec l’autorisation de la Société Autopen de la Damilic Corporation. Photo: D. R.

La portabilité de l’élément populaire
Il est envisagé que le texte numérique (Champion Jeptha Script) opérationnel sera transféré d’un groupe ou d’une communauté d’utilisateurs, au suivant. C’est similaire à ce que les chansons ou histoires populaires accomplissent ou tentent d’accomplir en tant que productions conçues à des fins de déploiement social. En effet, la tradition de l’histoire populaire (folklorique) culturelle (parlée et écrite) se préoccupe de la propagation des accomplissements et des vies de gens « ordinaires » ou « communs », qui méritent que la communauté future s’en souvienne. Dans le cas des polices du support numérique, le potentiel pour une transmission est tout aussi puissant par le biais de l’utilité, de la portabilité et de l’aspect de collection qu’atteignent les polices de caractères.

Le binôme textuel: le défi épistémologique de la technologie numérique
La principale conséquence de ce projet, qui consiste à reconstruire le texte manuscrit d’une personnalité, a fortuitement remis en cause le rôle de la pratique dans la technologie numérique. La participation à ce projet ne visait pas simplement le fonctionnement de l’outil numérique, ni la puissance d’une machine qui puisse générer automatiquement des formes constituées par l’écriture d’Andrew Jeptha. Au contraire, ce projet demande une intimité qui est proche de celle de la tradition du « copiste » [image 3] qui, en Afrique (7), appartient à l’histoire ancestrale de la diffusion des manuscrits. Les élèves de cette tradition copiaient la « main » d’un maître à maintes reprises jusqu’à ce qu’une reproduction fidèle puisse être obtenue. La fonction traditionnelle du copiste nécessite de comprendre les complexités de l’écriture qui est copiée et s’assurer qu’il n’y ait pas de dérèglement fondamental dans le processus.

L’histoire de la technologie nous présente un objet qui, paradoxalement, exclut toute trace d’idéation humaine dans le procédé de parfaite duplication d’une signature humaine. Ceci est manifeste dans l’Autopen (l’Autostylo [image 4]), une machine à signature automatique datant des années ’60, particulièrement et fréquemment utilisée aux États-Unis sous la présidence de John F. Kennedy (8). Cette pratique, qui consiste à utiliser une machine pour signer physiquement des documents officiels (pratique perpétuée à ce jour dans les services de Barack Obama), a conduit à la production d’un certain nombre de systèmes ultérieurs et de produits commerciaux comme le Ghostwriter (le « prête-plume » – Image 5). Ces machines-à-signature utilisent le code visuel d’une signature pour reproduire une matérialité autorisée en quantités illimitées.

Ghostwriter. Le « prête-plume » : bras mécanique signant un document. Avec l’autorisation de la Société Autopen de la Damilic Corporation. Photo: D. R.

La machine ne peut cependant enrichir le langage de la main humaine au-delà du nombre limité de lettres comprises dans la signature tant le procédé d’extension de la signature (un holographe détaillé) prend un temps considérable, mais demande aussi un nombre infini de combinaisons de mots et lettres pour que la machine puisse un jour y parvenir. En revanche, la tradition des copistes est une pratique qui requiert la compréhension de la technique manuscrite copiée de telle manière que, par moments, le scribe peut prévoir les qualités formelles que la main qu’il imite afficherait lorsqu’il est nécessaire d’insérer une lettre ou un chiffre dont le modèle n’est pas disponible. En ce sens, un dialogue visuel est créé entre la main d’un homme du présent et la main d’un homme du passé, tel un binôme textuel partagé à travers le temps et l’espace.

En nourrissant l’espoir de fournir de parfaits glyphes qui puissent être numérisés, l’auteur de cet article ressent une affinité particulière avec Andrew Jeptha, de par l’écriture et la réécriture des lettres initialement tracées par ce dernier. De temps en temps, la création de nouvelles lettres est nécessaire, « nouvelles » dans la mesure où des exemples antérieurs n’existent pas dans les archives de Jeptha. De manière symbolique, le procédé ou l’acte qui consiste à développer la police s’apparente à « tenir la main » d’un homme enterré depuis longtemps. La pratique est aussi une forme d’activisme et une façon de créer l’histoire populaire, de s’assurer que l’on se souvienne d’un héros national oublié, par-delà les frontières politiques de sa propre vie, d’une manière qui puisse être propagée à l’intérieur et au-delà d’une communauté.

La pratique de l’écriture du peuple se manifeste ainsi : la police Champion Jeptha Script indique une itération contemporaine de l’ancienne tradition des copistes, allant profondément à l’encontre de ce dont les machines comme l’Autopen semblent être capables à un niveau superficiel. La tension idéologique et épistémologique qui apparaît avec le rôle de l’Autopen et la tradition du copiste révèle la nature du conflit tacite qui, dans les sciences humaines, se joue actuellement dans le contexte de la technologie industrielle et de la culture artistique : La technologie n’est ni une idéologie […] ni une exigence neutre […], mais la scène d’une lutte […] un champ de bataille social (9). Malgré les trajectoires autrefois inimaginables qu’a rendues possibles la technologie numérique, la question du « Texte » reste encore sans réponse (10).

Kurt Campbell
publié dans MCD #71, « Digitale Afrique », juin / août 2013

Kurt Campbell organise des conférences sur les nouveaux médias à l’Université du Cap et à l’École des Beaux-arts Michaelis (Afrique du Sud). Il est le fondateur d’une fonderie indépendante de polices numériques et a exposé ses œuvres en Afrique du Sud et à l’international. Son travail est présent dans la collection permanente de la National Gallery of South Africa et dans plusieurs collections dans le monde.

(1) Vandana, Beniwal, Anup: Aesthetics of Activism: A Study of Mahasweta Devi’s Fiction, p. 16.

(2) Opperman, Serpil : The Interplay Between Historicism And Textualıty: Postmodern Hıstorıes, p. 102.

(3) Le travail de Luciana Duranti met en avant l’efficacité de la « diplomatique », une science d’archivage fondée par Jean Mabillon, un bénédictin français du XVIIe siècle, afin de valider les décrets royaux et monastiques et de déceler les faux documents. En tant que méthode de traitement des documents, la diplomatique a subi divers changements progressifs. La diplomatique « spéciale » illustre l’une de ces évolutions.

(4) Comme expliqué par Olivier Guyotjeannin in The expansion of Diplomatics as a Discipline (1996).

(5) Valéry, Paul: Le Physique du livre dans Paul Bonet, de Paul Valéry et Paul Éluard (Blaizot, 1945).

(6) Shloss, Carol. Journal of Modern Literature (Indiana University Press, 1985), pp. 153-168.

(7) Pour des informations détaillées concernant la tradition, cf. Timbuktu Scripts and Scholarship, édité par Meltzer, Lalou, Lindsay Hooper et Gerald Klinghardt (Le Cap: Hansa, 2008).

(8) Cf. The robot that helped the president (Le robot qui aida le président) de Charles Hamilton.

(9) Feenberg, Andrew: Critical Theory of Technology (Oxford University Press, États-Unis, 1991).

(10) Cf. The Genealogy of an Antidisciplinary Object de John Mowitt (Duke University Press Books, 1992) pour une étude approfondie de la question du « Texte » aujourd’hui.

 

Il est vraiment très curieux que nos têtes contiennent toutes de la musique à des degrés divers. Quand les Suzerains d’Arthur C. Clarke atterrissent sur notre planète, l’énergie avec laquelle notre espèce s’applique à produire et à écouter de la musique ne manque pas de les surprendre ; ils auraient été encore plus stupéfiés d’apprendre que, même en l’absence de sources de stimulation externes, nous entendons pour la plupart une musique intérieure incessante. (Oliver Sacks, Musicophilia)

Que nous le voulions ou non, nous sommes tous des personnages de science-fiction vivant dans une époque de science-fiction. (Ray Bradbury)

Bach ne module jamais au sens conventionnel, et laisse l’extraordinaire impression d’un Univers en expansion infinie. (Glenn Gould)

Avant d’envisager les copulations naturelles et contre nature de la musique et de la science-fiction, il convient de définir cette dernière qui est souvent pour les uns ce qu’elle n’est pas pour les autres sans que l’inverse soit pour autant vérifié.

 

Dans les années 50, Jacques Sternberg avait titré un de ses ouvrages : Une succursale du fantastique nommée science-fiction. Un peu réducteur peut-être. D’autant que le fantastique est une conjecture romanesque non rationnelle, ce qui le situe d’emblée dans une autre niche conceptuelle que la science-fiction qui se veut quand à elle « plutôt » rationnelle. Pierre Versins, l’auteur d’une Encyclopédie devenue mythique publiée au début des années 70, pense quant à lui que la science-fiction est un univers plus grand que l’univers connu. Un peu excessif, par contre. Pierre Versins a dû s’en rendre compte, car il précisera plus tard : la science-fiction n’est pas un « genre littéraire », mais un état d’esprit (…) qui se révèle à travers tous les genres, du poème au cinéma, et sous toutes les formes de l’image au discours.

Voilà qui commence à être beaucoup plus intéressant, et Norman Spinrad, auteur des livres cultes Jack Baron et l’Éternité et Rêve de fer enfonce le clou : on peut seulement définir la science-fiction par la perception qu’on en a. La science-fiction est donc ce qui est perçu comme tel. Il ne fait ainsi aucun doute que L’Arc-en-ciel de la gravité (Thomas Pynchon), La maison des feuilles (Marc Danielewski), Glamorama (Bret Easton Ellis) ou Mantra (Rodrigo Fresàn), bien que ne l’étant pas de façon affichée, peuvent être perçus comme des romans de science-fiction, tout comme Donnie Darko (Richard Kelly), Element of Crime (Lars Von Trier) ou Mulholland Drive (David Lynch) peuvent être perçus comme des films du même genre.

Et du côté de la musique ?

Nous pouvons tout d’abord constater qu’elle a souvent puisé dans le registre science-fictionnel, et ce depuis le XVIIIème siècle au moins. Une des premières œuvres musicales assimilables à la SF est probablement l’opéra de Joseph Haydn, Il mondo della luna (1777), sur un livret de Goldoni, dans lequel un truand se fait passer pour un habitant de la Lune auprès d’un astronome un peu trop crédule. Plus tard, Leos Janacek s’intéresse lui aussi à notre satellite avec Les Aventures de monsieur Broucek (1917), qui visite d’abord la lune puis voyage dans le temps en se rendant au XVème siècle. L’opéra de science-fiction a tenté depuis de nombreux compositeurs néo-classiques ou post-modernes, comme Lorin Maazel (1984, d’après George Orwell), Philip Glass (The Making of the Representative for Planet 8, d’après Doris Lessing) ou Howard Shore (The Fly, d’après Georges Langelaan avec David Cronenberg à la mise en scène).

Le monde du jazz et surtout celui du rock, qui font partie de la même communauté culturelle, ou plutôt contre-culturelle, que Boris Vian, Philip K. Dick, Robert Silverberg, Philip José Farmer, Michael Moorcock ou James Ballard, ont établi plus naturellement de nombreuses passerelles avec la SF. Pour ne citer que les plus assidus : David Bowie avec une quantité imposante de titres comme Space Oddity (1969) inspiré de 2001, a Space Odyssey d’Arthur C. Clarke, ou carrément de concept-album : The Rise and Fall of Ziggy Stardust and the Spiders of Mars, qui narre les frasques d’une rock star extraterrestre et Diamond Dogs, une dystopie dans l’esprit de 1984.

On pourrait bien sûr recenser des dizaines de groupes, mais il faudrait pour cela consacrer un article exclusivement à ce sujet (1). Citons tout de même le groupe britannique Hawkwind qui a placé la quasi-totalité de leurs albums sous le signe de la SF, avec entre autres Warrior on the edge of time basé sur le Cycle du héros éternel de Michael Moorcock (ce dernier ayant écrit les paroles de trois chansons de l’album), et le groupe français Magma dont l’ensemble de la production s’articule autour des relations/conflits entre les terriens et la planète Kobaïa, les textes des chansons étant rédigés en kobaïen, langue inventée pour l’occasion.

Mais c’est du côté de la musique psychédélique que la composante SF est la plus prégnante dans l’optique évoquée par Norman Spinrad. Avec en première ligne le vaisseau spatial des Pink Floyd piloté par Syd Barrett qui délivre des titres crépitants d’étoiles et fleurants bon l’acide et la marijuana comme Astronomy Domine, Interstellar Overdrive, ou Set the Control for the Heart of the Sun, et toute la constellation « Krautrock » (rock allemand des années 60/70) avec les représentants emblématiques du courant « cosmiche musik » : Tangerine Dream (Alpha Centauri, Phaedra, Rubycon, Stratosfear), ou Klaus Schulze (Cyborg, Timewind, Moondawn, Dune) aux titres d’albums évocateurs d’immensités intersidérales sillonnées par des cargos interstellaires, et de planètes plus ou moins exotiques qu’un Gustave Holst a déjà célébré en son temps. Mais là où la musique du compositeur anglais ne fonctionne à plein rendement sur le plan de l’illustration sonore qu’une fois la thématique énoncée, il suffit de quelques notes aux cosmiche rockers allemands pour nous propulser dans l’espace.

Comment cet exploit est-il possible sans l’utilisation de mots ou d’images pour canaliser l’imagination de l’auditeur ? Avec David Bowie, ou Hawkwind la problématique SF est également engendrée par les textes et l’iconographie des pochettes de disque. Privée d’un référent textuel ou visuel, leur musique est incapable d’orienter à coup sûr l’imagination de l’auditeur vers des univers science-fictionnels. D’où la question :

Existe-t-il une musique de SF ?

En se référant à la définition de Norman Spinrad, on peut répondre, me semble-t-il, par l’affirmative : Phaedra, Rubycon, Moondawn, Dune, et la quasi-totalité des albums psychédéliques allemands « sonnent » SF et peuvent donc être considérés comme des musiques SF. Ce qui induit une autre question à laquelle il est beaucoup plus difficile de répondre :
Pourquoi — ou plutôt comment — certaines musiques sonnent SF ?

Les archétypes de la SF, comme les machines à remonter le temps, les transmetteurs de matière ou les machines spatiales bourrées d’électronique y sont sûrement pour quelque chose. En effet, les séquenceurs, les boîtes à rythmes, les échantillonneurs, et bien sûr les ordinateurs parés de logiciels musicaux ne sont plus des instruments, mais, eux aussi, des « machines », génératrices de son : elles n’étaient encore que pure « anticipation » dans la première moitié du XXème siècle, si l’on excepte les premières créations d’ingénieurs fous en la matière : telharmonium (1900) ou ætherophone (1919), plus connu sous le nom de thérémine, qui fleurent bon le steampunk.

Ces premiers instruments électroniques sont d’ailleurs souvent utilisés avant l’arrivée des synthétiseurs pour ajouter un caractère « d’étrangeté » aux bandes originales de films fantastiques ou de science-fiction. Il en va de même pour les Ondes Martenot (1928), ancêtre oh combien génial du synthétiseur, et steampunk à souhait, avec son clavier en bois et son électronique embarquée. Le groupe allemand Kraftwerk (qui utilise d’ailleurs l’Ondéa, version actualisée des Ondes Martenot) est celui qui a joué avec le plus de clairvoyance et d’efficacité de ces archétypes, surtout lors de ses prestations scéniques : musique électronique + textes minimalistes constitués de mots clefs agencés tels des brins d’ADN + mise en scène « hard science » avec des robots qui interprètent certains titres à leur place + projection de films sur des sujets clefs de la science et de la technologie… Ils sont ainsi indéniablement les précurseurs de l’esprit cyberpunk (2). Là où leurs collègues de la cosmiche music lorgnaient du côté du space opera, fut-il sophistiqué comme celui de Dune (inspiré du roman de Franck Herbert), ils établissent un pont entre William Burroughs (Festin nu, Nova Express) et James Ballard (Atrocity Exhibition, Crash) d’une part et William Gibson (Johnny Mnemonic, Neuromancien) et Bruce Sterling (Mozart en verres miroir, La Schismatrice), les papes du cyberpunk, d’autre part.

Mais les sons synthétiques ne déclenchent pas à eux seuls un cinéma mental aux couleurs du space opera ni même du cyberpunk. La « composition », le talent créatif du musicien, reste toujours — heureusement — une composante incontournable. Pour s’en convaincre, retournons un instant dans le passé (le voyage dans le temps est quand même une belle invention) :

Dans sa Dernière conversation avant les étoiles, (1982) Philip K. Dick nous parle d’un projet de nouveau roman The Owl in daylight dont une des composantes principales est la musique et nous rapporte que Pythagore a conclu que le fondement de l’univers était la combinaison de la mathématique et de la musique, parce que ce sont deux aspects de la même chose. Tel a été son enseignement — c’est de là que vient l’expression “musique des sphères”. Il a dit ensuite que les corps en mouvements émettaient de la musique, mais qu’on ne l’entendait pas parce qu’on baignait dedans depuis la naissance, donc qu’on n’en avait plus conscience. Pourtant, nous percevons une musique ininterrompue.

Cette musique que nous ne percevons pas, mais qui existe quelque part dans l’univers mathématique du monde, ne l’entendons-nous pas d’une certaine manière dans la B.O. d’Eraserhead « interprétée » par David Lynch & Alan Splet ? Cette réinvention d’une musique de la matière, du temps et de l’espace me paraît être, selon la définition de Norman Spinrad, incontestablement une musique de science-fiction, tout comme les images qui vont avec.

Nous pouvons également avoir une idée de cette intention explicitement science-fictionnelle en présence d’un choc créatif : lorsque Jean-Philippe Rameau parvient à traduire musicalement dans l’ouverture de Zaïs l’établissement d’un ordre progressif de la matière, véritable interprétation harmonique, avec deux siècles d’avance, de l’évolution (ou nucléosynthèse) de la matière intersidérale (3). ou bien avec Les Éléments de Jean-Féry Rebel (1721) qui choisit ses accords et leur agencement de façon à ce qu’ils expriment le chaos par eux-mêmes, sans recours à la voix ou à un décor. Le résultat, surprenant de modernité, aurait pu être signé Art Zoyd et, quelle que soit la perspective, d’un côté ou de l’autre du temps, des auditeurs de l’époque à ceux d’aujourd’hui, le choc créatif engendre un décrochement du réel et propulse l’œuvre dans la SF.

Ce “décrochement” s’est aujourd’hui “banalisé”. Nous vivons dans une bulle de présent expansée, boursouflée, qui lance des tentacules dans tous les sens du temps. Duplication accélérée, clonage, machines autosuffisantes. La technologie prend de plus en plus le pas sur la recherche fondamentale. La musique électronique, devenue numérique mène sa propre vie. Se régénère, se métamorphose, s’échantillonne se duplique, vit, meurt et renaît de ses samples. Compression-expansion. Toute l’histoire de la musique dans un loop d’une nanoseconde. Les nombres sont les nombres.

La première fois que Philip K. Dick a pris du LSD, il écoutait un quatuor de Beethoven et il l’a vu sous forme de cactus. À chaque progression, de mesure en mesure, le cactus gagnait en complexité ; c’était un processus d’accrétion, et non plus une succession. Il devenait de plus en plus gros, de plus en plus complexe. Par un processus synesthésique, Dick a vu le quatuor de Beethoven sous une démultiplication fractale, une suite de Fibonacci. Il a « naturellement » transformé le son en image comme un logiciel le ferait par numérisation. Sans en avoir probablement conscience, il anticipait la révolution numérique capable de « dématérialiser » des sons et de les « rematérialiser » en images.

Les nombres sont les nombres et aujourd’hui toute musique est science-fiction.

Jacques Barbéri
publié dans MCD #70, “Echo / System : musique et création sonore”, mars / mai 2013

(1) Se reporter, entre autres, au dossier Culture rock & science-fiction (revue Bifrost 69, janvier 2013)
(2) Dans la même mouvance (la touche électro-pop en moins), il convient de citer le groupe français Heldon et les albums solo de son leader, Richard Pinhas (à qui on doit un excellent ouvrage sur Deleuze et la musique : Les larmes de Nietzsche), précurseur dans les années 70 d’une musique cyber-électro faisant ouvertement référence à Philip K. Dick, Norman Spinrad ou Michel Jeury.
(3) In Astronomie et musique au siècle des lumières, Dominique Proust.

> English Version

Écrivain et musicien, Jacques Barbéri a notamment publié la trilogie Narcose La Mémoire du Crime, Le tueur venu du Centaure (La Volte), et des recueils de nouvelles, Kosmokrim (Présences du Futur), L’homme qui parlait aux araignées et plus récemment Le Landau du Rat (La Volte). > www.lewub.com/barberi/

Jacques Barbéri fait également partie du groupe Limite, formé au milieu des années 80 avec d’autres écrivains comme Emmanuel Jouanne, Francis Berthelot, Jean-Pierre Vernay et Antoine Volodine, et la volonté d’expérimenter et de transgresser les codes d’écritures et de narration dans la science-fiction (cf. l’anthologie Malgré le monde, Présences du Futur). > www.rumbatraciens.com/limite/mecanique/m002.html

En parallèle, Jacques Barbéri s’illustre (saxophone, électronique, texte) au sein de Palo Alto emmené par Denis Frajerman. Dans la discographie de ce groupe expérimental et atypique, signalons Terminal Sidéral (CD + DVD sur Optical Sound), Cinq Faux Nids Six Faux Nez avec DDAA (Déficit Des Années Antérieures) sur le label Le Cluricaun et, bien sûr, Slowing Apocalypse; un tribute to J.G. Ballard paru aux éditions È®e, où figure Laurent Pernice avec qui Jacques Barbéri a aussi enregistré Drosophiles & Doryphores, un album electronica et mélodique sur le label slovène multimédia rx:tx.

 

voyage au cœur d’un océan de sons

Domaine particulier au sein de la production sonore, le field recording fut d’abord le fruit d’une approche scientifique et technique visant à collecter les sons du monde avant d’être une démarche esthétique et artistique usant de ces mêmes sons comme de matériaux créatifs. Au fil du temps, l’une comme l’autre ont remis les bruits du monde au centre de la création. La parution de Field Recordings, l’usage sonore du monde aux éditions Le Mot et le Reste, est l’occasion de se pencher sur ce qu’il est réellement convenu d’appeler — depuis la naissance de la musique concrète dans les années 50, puis de l’ambient dans les 70’s, du hip-hop, et de l’apparition du sampleur dans les années 90 — « l’art du Field Recording ».

La pratique du Field Recording, littéralement « enregistrement de terrain », apparait à la fin du 19ème siècle grâce à la mise en œuvre des premiers moyens opérationnels de captations sonores et d’enregistreurs portables. Les acteurs du Field Recording contemporains — Chris Watson (ex-Cabaret Voltaire), Geir Jenssen (aka Biosphere), le label Touch, Yann Paranthoën, Henri Pousseur, Lionel Marchetti ou feu-Luc Ferrari — sont, et furent, les héritiers de pionniers emblématiques tels que Nicolas Bouvier, écrivain, photographe, iconographe et voyageur suisse.

Équipé de son antique Nagra, un des premiers magnétophones portables inventés par Stefan Kudelski, Bouvier parcours sa vie durant les routes du monde, et particulièrement de l’Iran, du Pakistan. Il y enregistre les instruments et les chants des Persans et des Tziganes du Moyen-Orient. À ce titre, il participe de cette catégorie de chercheurs, anthropologues, sociologues, audio-naturalistes et ethno-musicologues, scientifiques voyageurs et mélomanes, qui captent les sons en vue d’un archivage patrimonial; éternels curieux, luttant contre l’oubli et l’ignorance.

Certains chercheurs se passionnent pour le chant de l’oiseau lyre d’Australie ou les mélodies des habitants des îles Salomon, quand d’autres se penchent sur le bruit de la ville ou les plaintes exaltées des prisonniers des pénitenciers nord-américains. Dés le départ le Field Recording se présente comme un vaste champ opératoire composé d’enjeux et de finalités aussi riches que variés. Sur ce plan, le livre d’Alexandre Galand, Field Recordings, l’usage sonore du monde en 100 albums, est une véritable mine d’enseignement. L’auteur insiste — à raison — sur cette dichotomie, scientifique/artistique, qui s’avère complémentaire au fil du temps. Composé d’un long essai historiographique, de trois interviews (Jean C. Roché, Bernard Lortat-Jacob et Peter Cusack) et d’une solide discographie, cet ouvrage est une première en langue française et une excellente entrée en matière pour l’amateur souhaitant se plonger dans cet océan de sons.

Aux origines techniques d’un art

Qu’il s’agisse de techniques ou d’études sonores, de collectes en vue d’un archivage ou de témoignage anthropologique patrimonial, l’enregistrement de terrain s’inscrit donc au départ dans une démarche spécifiquement scientifique. À ses débuts tout du moins, la pratique de l’enregistrement de terrain est une part importante de la recherche : qu’il s’agisse d’étudier la nature des sons, de capter des curiosités sonores ou plus concrètement de tester les techniques nouvelles et le matériel d’enregistrement. De ce point de vue, ces techniques et leur évolution sont évidemment pour beaucoup dans la naissance d’un art qui est alors encore à venir.

C’est en 1876 qu’Alexander Graham Bell invente le téléphone, réussissant ainsi à transformer le son en signal électrique. Un an après, Thomas Edison est déclaré « inventeur du phonographe » (même si, en vérité, il prit de vitesse le Français Charles Cros en déposant le brevet avant son concurrent). Cette invention majeure marque le début d’une ère où la reproduction du son naturel (et en série) devient possible. Le phonographe fut le premier appareil à reproduire les sons. Les utilisateurs parlaient alors dans une corne en métal, tout en actionnant une aiguille qui gravait le modèle des ondes ainsi provoquées sur un cylindre tournant, recouvert d’une feuille d’étain que l’on pouvait relire ensuite. Celle-ci s’avéra peu malléable et on la remplaça vite par une pellicule de cire.

Enfin vint l’acétate utilisé par le gramophone d’Émile Berliner, inventeur du procédé. La production industrielle fut laborieuse, et elle ne commença vraiment qu’en 1889. De son côté, le Danois Valdemar Poulsen, suivant les découvertes de l’Allemand Heinrich Hertz concernant les ondes électromagnétiques en 1887, invente une forme d’enregistrement magnétique sur fil de fer souple en 1898. Mais se sont les Allemands du groupe chimique BASF qui propose la possibilité de stocker des sons sur un magnétophone « à fil » à partir de  1930. Une technique qui s’améliore avec l’apparition de la bande pré-magnétisée proposée par la même firme (et qui sera beaucoup utilisé par le régime nazi).

De « l’enregistrement de terrain » au paysage de sons

On le voit, depuis son apparition, l’art du Field Recording est tributaire de cette évolution technologique constante. Les « audio-naturalistes », comme on nommait alors les pionniers qui pratiquaient ce type de recherches, sont forcés d’utiliser les moyens mis à leur disposition, cherchant toujours plus de qualité, de portabilité et d’accessibilité. Cela définit plusieurs catégories de pratiques au sein même du Field Recording, plusieurs approches.

Certains pratiquants optent pour les captations sonores brutes, in situ, dans la nature. Un parti-pris qui n’exclut pas les « sons parasites » et autres bruits naturels qui entourent le sujet et son observateur. C’est le problème devant lequel se trouvent les amateurs de chants et bruits d’animaux, ainsi que ceux qui captent et enregistrent dans le domaine ethnographique (des « natives » de diverses régions du monde, aux chants des prisonniers, marins, des bluesmen, des chants et instruments folkloriques) ou naturaliste.

Ce problème inhérent à l’environnement sonore impose différentes démarches. Certains préféreront isoler l’objet de l’enregistrement. Cela nécessite donc l’accès au studio. C’est là qu’interviennent l’électroacoustique et le traitement des sons. Avec la démocratisation des outils de reproduction et de production (gramophone, puis électrophone et magnétophone) vient le temps de l’expérience acoustique, électroacoustique et acousmatique. De simple « enregistrement de terrain », le Field Recording devient « écologie sonore », « paysage de sons », « cinéma pour l’oreille » ou « microphonie », reproduite, voire « trafiquée » en studio. Avec la création et accessibilité du home-studio, ces pratiques prennent de l’importance et se répandent. Techniquement, tout est bon pour transformer le monde en océan de sons. L’art du Field Recording est une exploration sonore du monde quasi-infinie.

La mise en son du monde

C’est véritablement à partir des années 50 que la pratique du Field Recording prend une autre voie. Sur les traces des grandes découvertes de la musique contemporaine : du sérialisme d’Arnold Schönberg, Alban Berg et Anton Webern à la musique concrète, conceptualisé par le Français Pierre Schaeffer, et la musique électronique telle que représentée par l’Allemand Karlheinz Stockhausen, l’approche évolue.

À ce propos, il est important de noter l’apport théorique fondamental de Pierre Schaeffer et de la musique concrète, dans l’évolution et l’approche esthétique, et créative, que va prendre le Field Recording. Si l’histoire de la musique est inévitablement liée à celle de la technologie, alors Pierre Schaeffer fut un véritable pionnier. Dès 1948, le Français fonde le Groupe de Recherches de Musique Concrète. Au début simple studio d’enregistrement radiophonique, il participera ensuite activement au développement d’une nouvelle forme de musique : la musique « concrète » qu’il renommera plus tard musique « électro-acoustique ». Schaeffer fut un des premiers à oser s’illustrer dans l’art de la manipulation des sons grâce à la technologie naissante des premiers enregistreurs à bande. Après bien des tâtonnements, il aboutira à une théorie qui suppose la remise en question des notions de « musique », d’écoute, de timbre, de son. Des idées qu’il mettra noir sur blanc dans son Traité des objets musicaux en 1966. Suivant les leçons dispensées dans ce texte manifeste et fondateur, des compositeurs vont tenter de nouvelles expériences.

Dans le domaine du Field Recording, c’est un autre français, Luc Ferrari, qui s’illustrera plus particulièrement, usant de la manipulation électroacoustique des sons et d’enregistrement nommé « anecdotiques » pour leurs caractères banals et quotidiens. Avec Schaeffer et Ferrari, puis plus tard d’autres compositeurs comme Michel Chion ou Lionel Marchetti, c’est en effet véritablement les sons du monde, de tout le monde, sons urbains, sons domestiques, sons infimes ou censément « inintéressants » qui entre dans le domaine de la création musicale.

Field Recording et art du sample : une (r)évolution esthétique

Aujourd’hui plus que jamais, l’exercice du Field Recording est au cœur de la création sonore. De l’ambient inventée dans les années 70 par Brian Eno à la techno, en passant par les projets expérimentaux de divers artistes et musiciens issus des deux scènes suscitées, l’exercice du Field Recording répond à une multiplicité de genre, de démarche et de tendance. L’ambient, par exemple, fut conceptualisé par le musicien britannique Brian Eno, par hasard, alors qu’alité, il passait un disque 33T à la mauvaise vitesse.

Ce micro-évènement lui donnera l’idée d’une musique « d’ambiance », une musique papier peint, qui, au départ, ne répondait en aucun cas aux exigences (il est vrai très libres) du Field Recording. Ce sont plutôt des musiciens techno comme les Anglais de The Orb, ou encore dans une veine plus industrielle, Cabaret Voltaire, 23 Skidoo et autre qui mélangeront rythmes plus ou moins lents avec des captations sonores, dialogues, bruit du vent et des vagues pour les uns, ou cacophonie urbaine et flux d’information pour les autres.

L’apparition du bruit dans la pop music, qui remonte aux Beatles et au Beach Boys, s’émancipe dans la techno. Dans les années 90, des artistes issues de cette scène s’inspireront à la fois de la musique concrète de Schaeffer et des paysages de sons urbains ou naturels des ancêtres de l’ambient pour créer leur propre univers sonore. C’est le cas de Geir Jenssen (aka Biosphere) qui avec une poignée d’albums inoubliables posera vraiment les bases d’un genre, créant presque une école à lui seul. D’autre, ex-artistes de la scène industrielle ou techno, comme l’ex-Cabaret Voltaire Chris Watson, se lance pleinement dans cet art, se faisant rapidement un nom dans ce domaine à part. Entre temps, de nombreux artistes connus et reconnus se sont essayés à cette pratique, offrant à l’auditeur de purs disques de Field Recordings. Ce sont Moondog, Yann Paranthoën, Jana Winderen ou Peter Cusack. Eux aussi suivent les traces de grands pionniers comme Luc Ferrari, Henri Pousseur, Steve Reich ou Alvin Lucier.

De par sa conception du monde, sa liberté, la multiplicité des pratiques qu’il suppose, l’évolution encore active des moyens de captation du monde qui nous entoure, l’exploration des « micro-sons » et autres « infra », la différence des buts poursuivis par les artistes qui se penchent sur ce domaine, le Field Recording a encore de beaux jours devant lui. À l’image des productions qu’il propose, il est une fenêtre toujours ouverte sur le monde et sur la création.

Maxence Grugier
publié dans MCD #70, “Echo / System : musique et création sonore”, mars / mai 2013

> English Version

méthode d’hypnothérapie…

La présence et le développement incessant de la technique dans le domaine musical n’auront échappé à personne, pourtant on peut s’étonner du manque de considération des conséquences sur les contenus, à savoir la tendance normative induite par la généralisation de l’outil informatique comme moyen de production, de diffusion et d’écoute.

Un mouvement global et profond qui par phénomène de « modélisation » conditionne donc l’ensemble de la filière musicale jusqu’à l’exclusion de facto de certaines musiques. Enfin, au regard du déploiement de nouveaux supports, de l’apparition frénétique de nouveaux produits, du fétichisme du matériel, etc.; on peut se questionner aussi sur la nature de l’écoute et du rapport à la musique…
Les retours du vinyle ou de la K7, aussi sympathiques puissent-ils être parfois, s’expriment souvent dans une méconnaissance du digital (non, le son CD n’est pas mauvais, des amplis numériques rivalisent avec du matériel à transistors ou à tubes, etc.), mais en plus sont eux aussi encore conditionnés par ce dernier; quand il ne s’agit pas de nostalgie ou d’effets de mode accompagnés d’un fantasme de subversion…
Si la pluralité des modes de production, de diffusion et d’écoute paraît favorable à une diversité de création (y compris celle de l’auditeur, sa part active), malheureusement elle dissimule aussi à certains égards ces phénomènes de normalisation. Par contre le marché du matériel audio connaît une certaine effervescence… Il n’est pas forcément naturel de payer pour l’acquisition de musiques, mais il est courant d’acheter des casques à 300€ pour écouter du MP3…

La technique est le facteur dominant de notre société, elle la structure foncièrement (devant l’économique qui en oriente les applications, en accroît certains effets, etc., et le politique). On renverra à Jacques Ellul à ce sujet (il est courant de concevoir plutôt cet ordre d’influences : l’économique, le politique, le scientifique, le culturel). Toute technique inclut du négatif et du positif, mais de sorte qu’il ne soit pas aisé de les séparer.
Face aux arguments habituels de l’apport de nouvelles techniques audio (l’accessibilité de la production, de la diffusion et enfin des œuvres), il convient de relever en quoi la technique n’a pas que des effets émancipateurs. Comment ne pas voir aussi dans la technique un agent catalyseur de ce flux continu de la machine globale en mode automatique, alimentée de façon ininterrompue par une succession de prétendants interchangeables et leurs musiques d’élevage, et entretenue bien sûr par le marché et les monopoles déguisés de grands groupes ?

Concernant la production, contrairement à ce que le cadre numérique peut laisser supposer, on soutiendra que faire des « labels » a encore un intérêt aujourd’hui, voire d’autant plus, mais rappelons qu’une telle activité (ou une maison d’édition) quand elle a un profil « artisanal » ne devrait pas exister au regard des systèmes existants. Modèle économique impossible — si tant est que l’on mette un peu de conscience dans les tenants et aboutissants —, quand bien même on trouve des astuces, joue avec les contraintes, intègre la « crise » au projet. Dans ce contexte, les facilités techniques n’ont pas rendu l’exercice plus viable (globalement), ni ne sont gage de qualité de production.

Évolution maintes fois commentée, une personne seule, sans bouger de chez elle, peut regrouper la chaîne entière d’une production musicale, de la composition à la négociation de droits en passant par le clip promotionnel et la vente au public. Face à la crétinerie des majors, cette facilité du « tout-en-un » est forcément sympathique (cependant les circuits dominants se sont vite adaptés en intégrant aussi cet aspect), mais aussi peut faire oublier l’intérêt des modes collaboratifs inhérents aux anciens processus (ingénieur du son, producteur, arrangeur, etc.).
On rencontre ici la propension humaine au plus pratique, ainsi que la question de la liberté de création. Mais s’il est possible alors de s’affranchir de la tutelle d’un producteur ou d’un label, on ne subit pas moins les contraintes d’un système technique (et commercial)…
La production pourra être formatée par les outils utilisés comme par la perspective de la diffusion pratique. Cette conformation — qui peut certes être aussi le fait d’un collectif — du projet aux limites d’un système dominant (compression excessive, etc.) n’est pas forcément consciente…

Il n’est bien sûr pas question de faire l’apologie du principe de division du travail dont on connaît les horreurs, les fonctions ne doivent pas être étanches — une histoire de dispositions et non d’assignations. Par ailleurs, un auteur seul ne sera pas à l’abri de s’imposer à lui-même une division du travail non dédiée au projet artistique… Les projets doivent définir les systèmes et non l’inverse — ce qui n’empêche pas non plus de jouer avec des conventions en place. Le cinéma abonde d’exemples de producteurs et d’auteurs qui ont fait preuve de compétences propres au champ de l’autre, etc.
Comme énoncé ailleurs, ce qui fait art est en déplacement permanent et n’est pas le fait des seuls auteurs (questions de liberté). Il est toujours instructif de circuler entre les différents niveaux (auteur, label, distributeur, disquaire…), en essayant par exemple de réviser les fonctions de chaque à la lumière des autres (et d’autres domaines d’ailleurs).

Du côté des supports d’écoute, contrairement aux idées dominantes le CD est encore aujourd’hui le moyen le plus simple pour écouter de la musique correctement restituée. On retrouve là aussi la propension humaine à la recherche de praticité avant celle du mieux; si ce n’était pas le cas, le MP3 aurait été limité à des usages non musicaux.
Le « dématérialisé » (qui demande toujours beaucoup de matériel), si toutefois on souhaite une restitution « correcte », accuse encore un écart non négligeable avec la simplicité et la fiabilité d’une installation CD (pour approcher la qualité CD, il faudra se confronter à quelques questions techniques); sachant qu’il faut aussi prendre en compte le coût des œuvres en HD quand par ailleurs l’offre CD à bas prix est infinie. Tout cela bien sûr si l’on est attentif à des choses fines, des œuvres orchestrales, etc. Évidemment avec la pop calibrée pour le MP3 les différences sont moindres…

Une querelle vinyle/CD d’un autre temps n’a plus lieu d’être; d’ailleurs je n’imagine pas certains projets autrement qu’en vinyle (comme ceux de Vincent Epplay sur notre label) ou certaines musiques (le skweee par exemple). Il conviendra par contre de ne pas comparer le son d’un lecteur CD cheap à une platine vinyle haut de gamme… À bien des égards le CD présente des avantages que l’on n’énumèrera pas tous ici. Par exemple, pour certaines musiques, ne pas entendre le frottement de surface importe plus que l’apport (parfois illusoire) du vinyle. Enfin, observant cette vague du vinyle, on ne compte plus les nouveaux adeptes qui sur les forums dédiés font part de leur désappointement… Bon, le vinyle c’est très bien, il s’agit juste ici de réajuster le débat…

La dématérialisation pourrait sembler pertinente pour ce qui concerne la chose artistique et la musique… Mais il y a bien encore du matériel, de l’esthétique parasite, etc. Le parti pris de certains projets est plutôt d’intégrer les éléments matériels, de jouer avec plutôt que de les subir par convention. Il n’y a donc pas d’oppositions à entretenir entre les supports; il faut plutôt voir un panel de moyens aux spécificités qu’il peut être intéressant d’explorer et croiser dans des objectifs forcément différents. L’apport du digital étant indéniable au regard du champ d’expérimentations qu’il a ouvert sur des modes de composition, de collaboration, d’échange, d’écoute… Du point de vue du « consommateur », on verra aussi une complémentarité entre les différentes propositions pour différents usages.

Pour revenir aux questions de restitution sonore, notons qu’il n’est pas inévitable de tomber dans un délire élitiste — d’ailleurs la hi-fi est devenue plus accessible et on pourra énumérer bien d’autres dépenses inutiles, voire destructrices, plus coûteuses au final. Par contre, le fait est que nombreuses musiques sont dénaturées par leur support de diffusion jusqu’à en perdre leur intérêt, leur singularité. Il est arrivé aussi d’entendre une maladresse de jeu ou de composition là où en fait était en cause une faiblesse de restitution sur les attaques ou extinctions de notes…
Il ne s’agit pas non plus de revendiquer la façon dont une musique doit être écoutée, ni de fantasmer l’œuvre dans son origine immaculée, mais de préciser que ces musiques sont altérées sans que souvent l’on ait le choix ni en ait conscience : on peut choisir de lire un livre par fragments, mais personne ne tolèrerait que l’on distribue un ouvrage avec du vocabulaire modifié ou des phrases manquantes… Or nombreuses musiques n’existent que par support. Alors, si la quête d’un son identique du studio à l’auditeur est utopique (et pas nécessairement souhaitable de plus), on postulera qu’il y a un minimum décent, mais relatif, subjectif, empirique.

En faisant un effort sur la qualité de restitution on pourrait certainement amener d’autres publics, la musique est d’abord un phénomène sonore et ne pas restituer suffisamment celui-ci dans sa dimension charnelle entraînera l’indifférence de l’auditeur. Face à ces problématiques de qualité sonore, il y a aussi l’option de la production low-fi, en général signe d’une urgence, d’une indifférence au son « propre » ou d’un rejet du numérique, mais cette posture — d’ailleurs à même de générer autant de fétichisme — ne résout pas la question de la restitution : écouter sur un système low-fi ou sur système hi-fi (qui reproduit parfaitement la nature du projet) ?

Notre écoute est liée à la technique au point de considérer que parfois on écoute plus de la technique que de la musique. Exemple, dans certains concerts la puissance de l’amplification vient compenser la pauvreté de propositions artistiques (et/ou répond à un jeu dominant/soumis loin de questions musicales, à moins que ne s’exprime là une réalité du concert, flagrante dans certains cas) ; on pourrait voir là une attirance insoupçonnée pour le noise vécue par transfert… — comme on parle de tendances sexuelles non assumées vécues par transfert.
En ce sens la musique noise est une relation pertinente à notre monde, et par cette confrontation directe à la technique, si elle est bien menée, en constitue une conscience esthétique, touchant des zones sensibles que le ronronnement musical dominant n’imagine pas… L’usage de la technique comme (ré)activation de zones sensibles et mentales versus la technique « prothèse » ou « atrophie ».

Denis Chevalier
cofondateur et directeur artistique de PPT et du label Stembogen
> www.e-ppt.net

publié dans MCD #70, “Echo / System : musique et création sonore”, mars / mai 2013
> English Version

un label transversal

Quel est le terrain d’action d’un label dans le contexte actuel où la musique, dématérialisée, mais toujours réifiée, perd sans cesse de sa valeur marchande et esthétique dans « les mailles du réseau » ? C’est à cette question et quelques autres que répond Pierre Beloüin, label-manager d’Optical Sound. Une structure qui déborde du simple cadre de l’édition musicale pour annexer d’autres territoires artistiques, comme l’indique son « sous-titre » : records & fine arts.

Ma motivation initiale pour créer Optical Sound a été de prolonger ce que je faisais déjà, comme tout amateur de musique, en étant adolescent sous la forme de compilation cassettes : une manière de donner un point de vue sonore, mais cette fois sous une forme plus professionnelle en produisant des groupes, avec une réelle diffusion, identité visuelle et ligne éditoriale.
D’autre part, j’avais bien sûr en tête les labels majeurs qui sont toujours des modèles pour moi, tels que : Touch, 4AD, Mute, Mille Plateaux, Mego, L’invitation au Suicide, Sordide Sentimental, Giorno Poetry System, V.I.S.A, Bondage, Some Bizarre, Factory… j’en passe et des meilleurs !
Une de mes principales motivation était aussi de lier mon travail de plasticien à ma passion pour la musique, dès la première édition d’Optical Sound qui était destinée à une écoute individuelle (cf : OS.000 Programme Radio), mais aussi à une de mes installations présentée initialement pour mon diplôme aux Beaux-arts de Paris et portait le nom Optical Sound.

Pour moi la musique a toujours été intimement liée aux Arts Plastiques, et je continue à citer de manière très basique Mike Kelley et Sonic Youth, le Velvet et Warhol; les exemples sont tellement nombreux… La transversalité ne date pas des années 90…
Ces deux domaines (et bien d’autres) ont toujours nourri mes recherches, à double sens. Cela forme un tout avec tous les domaines culturels qui m’animent, il me parait essentiel d’avoir une certaine cohérence et ligne de conduite.
Optical Sound n’est pas un label de musiques électroniques, expérimentales, décalées, cold wave, rock, dark dub, exotica, concrète, acousmatique, mais bien tout cela à la fois, sinon à quoi bon…
Mais Optical Sound est surtout une structure tentaculaire qui, en dehors de sorties physiques sous forme d’objets sonores, organise aussi des expositions, des concerts, de livres et revues, des sérigraphies, des DVD, des applications pour iPad, des dispositifs d’écoutes performatifs, de l’architecture sonore, des audits funéraires, etc.

Par ailleurs, Optical Sound a aussi fonction conservatoire, d’archives (RVB~Transfert, etc.), de trace (Légion Cérébrale, live act for 23 headphones)… Pour RVB~Transfert ou Echo Location, il s’agissait de rendre hommage à mes pairs (pères) non pas sous une forme purement nostalgique, mais aussi avec un pendant contemporain d’auto-réinterprétations pour Echo Location : que se passe-t-il dans le processus créatif d’artistes entre leurs premiers travaux et leurs plus récents ? Quelle vision ont-ils sur leurs propres travaux à vingt ans d’écarts ?
Pour le DVD de plus de trois heures d’archives, RVB~Transfert, il s’agissait de montrer que, malgré le manque de moyens de diffusion et d’outils audiovisuels à l’époque (1979/1991), une scène française bouillonnante et créative était très présente. Paradoxalement on se rend donc compte que tous les outils sont aujourd’hui disponibles et accessibles, mais qu’une pauvreté certaine est au rendez-vous…
Concernant les reliques et archives de lives (comme le concert de Légion Cérébrale pour mon exposition personnelle au FRAC PACA, par exemple), elles font partie de la ligne éditoriale d’Optical Sound. Je ne me contente pas d’éditer les travaux d’artistes, mais je collabore aussi régulièrement avec eux pour la création de bandes sonores liées à mes travaux.
Ces éditions sont des extensions autonomes, des prolongements de mes projets d’expositions, qui existent encore de manière physique comme des catalogues, bien après les dates des dites expositions ou résidences (cf. Special Kit édité suite à ma résidence au Canada puis à la Villa Arson).

On dit souvent Optical Sound édite uniquement des choses visuelles, car c’est une référence au cinéma… Oui, mais pas seulement : le choix du nom était avant tout une manière de mettre en lumière toutes les images mentales générées par une écoute sonore.
Je déteste les étiquettes et les carcans : tout pousse à faire rentrer les gens dans des cases bien lisibles et identifiables, même dans les domaines artistiques, alors qu’il suffit de se pencher un peu sur un contenu pour en comprendre les rouages, mais ce qui manque cruellement aujourd’hui c’est un temps d’écoute, de regard et un retour au désir…
Les artistes édités sur DVD par Optical Sound sont des artistes multiples, vidéastes, mais aussi musiciens, etc. Mais pour une forme visuelle en mouvement, j’envisagerai plutôt un retour à des séances uniques de projections dans le cadre de concerts donnés dans des lieux atypiques, comme je le fais déjà dans le cadre du festival Ososphère par exemple, ou encore dans peu de temps avec le festival Fimé en région PACA.

propos recueillis par Laurent Diouf
publié dans MCD #70, “Echo / System : musique et création sonore”, mars / mai 2013

Optical Sound > https://optical-sound.com/

> English Version

Les universitaires du début du XXe siècle spécialisés en sciences humaines, les critiques, conservateurs et commissaires d’expositions ont accès à une quantité de médias visuels sans précédent — beaucoup plus qu’il ne leur serait possible d’étudier, ni même simplement visualiser ou encore rechercher.

Manga / montage (close-ups). Lev Manovich & Jeremy Douglass, 2010.

Manga / montage (close-ups). Lev Manovich & Jeremy Douglass, 2010. Photo: D.R. / Courtesy Lev Manovich

Comment travailler avec de gigantesques collections d’images?
Une certain nombre de développements reliés entre eux, survenus entre 1990 et 2010 — la numérisation d’un grand nombre de collections de supports analogues, l’augmentation de contenu généré par les utilisateurs et les plateformes sociales, l’adoption du web en tant que plateforme de diffusion de médias et la globalisation qui a accru le nombre d’agents et d’institutions produisant des médias dans le monde entier — ont conduit à une augmentation exponentielle de la quantité de médias, tout en facilitant la possibilité de les trouver, les partager, les utiliser dans un but pédagogique et les rechercher. Des millions d’heures de programmes télévisés déjà numérisés par diverses bibliothèques nationales et musées des médias, quatre millions de pages de journaux américains de 1836 à 1922 numérisées (www.chroniclingamerica.loc.gov), 150 milliards d’instantanés de pages web capturées depuis 1996 (www.archive.org) et des trillons de vidéos sur YouTube ou de photos sur Facebook ainsi que bon nombre d’autres sources médiatiques attendent que l’on puise dans leur réserve.

Comment explorer de manière efficace ces gigantesques collections d’images numériques de manière à soulever des questions pertinentes ? Parmi les exemples de telles collections on peut citer les 167 000 images de la galerie Flickr d’Art Now, les 176 000 clichés de la Farm Security Administration/Office of War Information pris entre 1935 et 1944 et numérisés par la bibliothèque du Congrès américain. Comment travailler avec de tels ensembles d’images ? La méthode de base employée par les chercheurs des médias alors que le nombre d’éléments médiatiques était encore relativement faible — visualiser toutes les images ou les vidéos, isoler des tendances et les interpréter — ne fonctionne plus.

Si l’on considère la taille des collections contemporaines de médias, il tout est simplement impossible de visualiser leur contenu avant même de commencer à formuler des questions et hypothèses, voire de sélectionner des échantillons destinés à une analyse plus pointue. Même s’il on peut penser que cela provient des les limites de la vision et l’absorption de l’information humaines, à mon avis, le problème réside davantage dans le design actuel des interfaces. En effet, les interfaces populaires qui permettent d’accéder aux collections de médias numériques telles que les listes, les galeries d’images et les bandes d’images ne nous permettent pas de voir l’intégralité du contenu de la collection. D’ordinaire, ces interfaces ne montrent que quelques éléments dans un même temps, indépendamment du mode utilisé, que ce soit la navigation ou la recherche. L’impossibilité de visualiser une collection dans son ensemble nous empêche de comparer des séries d’images ou de vidéos, de dégager des tendances d’évolution sur une durée ou d’appréhender une partie de la collection au regard de l’ensemble.

Contre la recherche : comment chercher sans savoir ce que l’ont veut trouver.
Les technologies populaires d’accès aux médias des XIXe et XXe siècles — les lanternes magiques, projecteurs de films, Moviola et Steenbeck, tourne-disques, enregistreurs audio et vidéos, magnétoscopes, lecteurs DVD, etc. — avaient été conçues pour accéder à un seul média à la fois, à une vitesse limitée. Ceci allait de pair avec l’organisation de la diffusion des médias : magasins de disques et de vidéos, bibliothèques, diffuseurs télévision et radio mettaient seulement à disposition quelques éléments à la fois. Dans un même temps, les systèmes de classification hiérarchiques utilisés dans les catalogues et les salles de bibliothèques encourageaient les utilisateurs à accéder à une collection par le biais des schémas de classification figés, à l’inverse d’un parcours soumis au hasard. Quand vous consultiez un catalogue de fiches ou vous déplaciez physiquement d’étagère en étagère, vous suiviez une classification basée sur des sujets, avec des livres rangés par noms d’auteur à l’intérieur de chaque catégorie. Ainsi, bien qu’un seul livre puisse lui-même s’inscrire dans un mode aléatoire, ce n’était pas le cas pour les plus grandes structures dans lequel les livres et autres médias étaient rangés.

Ensemble, ces systèmes de classification et de diffusion amenaient les chercheurs en médias du XXe siècle à décider de l’objet médiatique à étudier. Un chercheur commençait habituellement par un individu spécifique (un réalisateur, un photographe, etc.) ou une catégorie spécifique (par exemple : Le cinéma expérimental américain des années 60). En procédant ainsi, il était dit d’un chercheur qu’il se déplaçait de haut en bas dans la hiérarchie de l’information d’un catalogue et choisissait ainsi un niveau spécifique comme sujet de son projet : cinéma > cinéma américain > cinéma américain expérimental > cinéma américain expérimental des années 60. Les plus téméraires ajoutaient de nouvelles ramifications à l’arbre des catégories, la plupart se satisfaisaient d’ajouter de simples feuilles (articles et ouvrages).

Malheureusement la nouvelle norme d’accès aux médias — la recherche sur ordinateur — ne nous éloigne pas de ce paradigme. L’interface de recherche est une page blanche qui attend que l’on y tape quelque chose. Avant de cliquer sur le bouton « recherche », vous devez décider des mots et expressions clés à rechercher. Alors, tandis que la recherche permet une accélération spectaculaire de l’accès à l’information, sa grande préconception (dont on peut sans doute retracer l’origine à la « récupération d’information » des années 50) est que vous connaissez en amont la collection digne d’une exploration plus poussée.

En d’autres termes : la recherche part du principe que vous souhaitez trouver une aiguille dans la botte de foin de l’information. Elle ne vous permet pas de voir la forme de la botte de foin en elle-même. Si c’était le cas, cela vous procurera d’autres idées sur les éléments à chercher, en dehors de l’aiguille à laquelle vous pensiez au départ. Par ailleurs, la recherche ne révèle pas la localisation de toutes les aiguilles. C’est-à-dire qu’elle ne montre pas la manière dont des données ou ensembles de données spécifiques sont liés à la globalité de ces données. L’utilisation de l’outil de recherche s’apparente à la vision rapprochée d’une peinture pointilliste où l’on peut seulement percevoir les points de couleur sans pouvoir zoomer en arrière pour dégager des formes.

Kingdom Hearts II (videogame transversal). William Huber & Lev Manovich, 2009

Kingdom Hearts II (videogame transversal). William Huber & Lev Manovich, 2009 / Kingdom Hearts II (Square-Enix Inc., 2005). Photo: D.R.

Le paradigme de l’hypertexte qui définit le World Wide Web est également limité : il permet la navigation à travers des pages dans la globalité du web en fonction de liens définis par des tiers, à l’inverse d’un mouvement libre dans ses directions. Ceci corrobore la vision originale de l’hypertexte telle que l’avait définie Vannevar Bush en 1945 : une manière pour le chercheur de créer des traces à travers l’immensité des informations scientifiques permettant à d’autres de retrouver plus tard ces mêmes traces.

Sur la base de mon étude sur quelques unes des plus grandes collection de médias en ligne disponibles aujourd’hui telles qu’europeana.org, archive.org, les collections numériques de la bibliothèque du Congrès américain et artstor.org, je distingue une interface type qui propose aux utilisateurs de naviguer de manière linéaire à travers une collection ou par le biais de catégories, de tags thématiques et d’effectuer une recherche en utilisant des métadonnées enregistrées pour chaque objet médiatique. Dans chacun des cas, les catégories, les tags et les métadonnées ont été insérés par les archivistes (aucun des sites que j’ai visité n’offrait des tags générés par les utilisateurs). De ce fait, lorsqu’un internaute accède aux collections institutionnelles de médias par le biais de leurs sites, il peut uniquement se déplacer selon un nombre de trajectoires déterminées par la taxinomie de la collection et les types de métadonnées employées pour décrire les données.

Par contraste, lorsqu’on observe une scène de la vie réelle en direct, avec ses yeux, on peut regarder dans tous les sens. Ceci permet de distinguer rapidement divers schémas, structures et liens. Imaginez, par exemple, que vous tourniez au coin d’une rue et que vous ayez dans votre champ de vision une place ouverte avec des passants, des cafés, des voitures, des arbres, des panneaux publicitaires, des vitrines de magasins et autres éléments… Vous pourriez rapidement détecter et suivre une multitude de motifs qui changent de manière dynamique sur la base d’une information visuelle et sémantique : des voitures se déplaçant le long de lignes parallèles, des maisons peintes de couleur similaire, des gens qui suivent le cours de leur trajectoire et d’autres en train de parler, des visages étranges, des vitrines qui se démarquent du reste, etc.

Nous avons besoin de techniques similaires qui nous permettent d’observer de vastes « univers de médias » et de détecter rapidement les tendances pertinentes. Ces techniques se doivent d’opérer à une vitesse bien supérieure à celle du visionnage (des médias basé sur le temps réel). Alternativement, elles doivent utiliser des images fixes. Je devrais pouvoir visualiser une information importante concernant un million de photos dans le temps habituellement requis pour visionner une seule image. Ces techniques se doivent de compresser les gigantesques univers de médias en « paysages » de médias plus petits et observables, compatibles avec la capacité humaine à traiter l’information. En même temps, elles doivent pouvoir conserver assez de détails issus des images, des vidéos, des sons ou des expériences interactives pour permettre une étude des tendances subtils au sein des données.

Visualisation des médias
Les limites des interfaces type des collections de médias en ligne valent aussi pour les interfaces des bureaux d’ordinateurs et des applications de téléphones portables qui permettent de visionner, cataloguer et sélectionner tout comme les sites qui hébergent des médias. Il en va de même pour les sites de collection spécialisés, les gestionnaires de médias et les sites d’hébergement permettant aux utilisateurs de naviguer et de rechercher des images et des vidéos et d’afficher les résultats dans différents formats. Leur utilité en tant qu’outils de recherche reste cependant très limitée. Des applications d’ordinateurs telles qu’iPhoto, Picasa, Adobe Bridge et des sites de partage d’images comme Flickr et Photobucket ne peuvent montrer que des images dans un nombre limité de formats fixes — généralement une grille à deux dimensions, une bande linéaire, un diaporama et, dans certains cas, une vue cartographiée (des photos superposées sur la carte du monde). Les images sont habituellement classées par date de téléchargement; pour afficher des photos dans un ordre différent, l’utilisateur doit passer du temps à ajouter de nouvelles métadonnées à toutes les images. Il ne peut organiser les images automatiquement selon leurs propriétés visuelles ou leurs relations sémantiques, ni comparer des collections susceptibles de contenir des centaines de milliers d’images ajoutées les unes aux autres, ni utiliser des techniques de visualisation d’informations afin d’explorer les tendances à travers des séries d’images.

Les outils graphiques et de visualisation — Google Docs Excel, Tableau, Many Eyes et autres logiciels graphiques et feuilles de calcul — offrent un éventail de techniques de visualisation conçu pour montrer des données. Mais ces outils ont eux aussi leurs limites. Un principe clé qui sous-tend la création de graphiques et de visualisation de l’information est la représentation de données à l’aide de points, de barres, de lignes et autres représentations archaïques Ce principe est resté immuable entre les premiers graphiques statistiques du début du XIXe siècle et les logiciels contemporains de visualisation interactive, qui peuvent opérer avec de grands ensembles de données. Bien que ces représentations indiquent clairement les relations dans un ensemble de données, elles cachent aussi les objets derrière les données de l’utilisateur. S’il est parfaitement adapté à de nombreux types de données, dans le cas d’images et de vidéos, ce modèle devient un sérieux obstacle. Par exemple, un diagramme 2D montrant une répartition des notes dans une classe avec chaque élève représenté par un point remplit son objectif, mais l »utilisation du même type de graphique pour représenter les tendances stylistiques au cours de la carrière d’un artiste à travers des points est plus limitée si nous ne pouvons visualiser les œuvres d’art.

Depuis 2008, mon projet Software Studies Initiative a mis au point des techniques visuelles qui associent la force des applications de visionnage à celle des applications de graphisme et de visualisation. Comme ces derniers, elles génèrent des graphiques qui montrent les relations et les tendances dans un groupe de données. Cependant, alors que logiciels qui créent des diagrammes peuvent seulement afficher les données sous forme de points, de lignes ou autres graphismes archaïques, notre logiciel peut montrer toutes les images d’une collection superposées sur un graphique. Nous appelons cette méthode la visualisation de médias (ou mediavis).

Mapping Time. Jeremy Douglass & Lev Manovich, 2009. Couvertures des différentes éditions du Time magazine par ordre de publication de 1923 à l'été 2009.

Mapping Time. Jeremy Douglass & Lev Manovich, 2009. Couvertures des différentes éditions du Time magazine par ordre de publication de 1923 à l’été 2009. Nombre de couvertures utilisées au total : 4535.

Une visualisation de l’information type consiste à d’abord traduire le monde en nombres et ensuite à visualiser les relations entre ces nombres. En revanche, la visualisation des médias se traduit par un ensemble d’images dans une représentation visuelle, qui peut révéler des tendances parmi les images. En bref, les images sont converties en images. Les deux visualisations de la même série de données exposées ci-après illustrent les différences entre infovis (visualisation d’informations) et mediavis (visualisation de médias). Les deux visualisations utilisent la technique familière du tracé de dispersion de points. Cependant la deuxième ajoute des images sur les points. La première visualisation montre la distribution des données, la seconde nous permet de comprendre ce qui se trouve derrière les points.

Les données utilisées pour ces visualisations sont 1.074.790 pages de mangas (bande dessinée japonaise). La première visualisation représente chaque page par un point. La deuxième visualisation utilise des copies de pages réduites à la place des points. Pour produire ces visualisations, nous avons mesuré un certain nombre de caractéristiques visuelles de chaque page: le contraste, le nombre de lignes, les propriétés de la texture, etc. Nous utilisons ensuite une des mesures pour placer les données sur l’axe des X, alors qu’une autre mesure est utilisée pour placer des données sur l’axe des Y. Cette méthode nous permet d’organiser les images selon leurs caractéristiques visuelles par rapport à deux dimensions.

Dans cette visualisation, les pages de la partie inférieure de la visualisation sont les plus graphiques et ont le moins de détails et de texture. Les pages en haut à droite possèdent une grande quantité de détail et de texture. Les pages au contraste plus élevé sont sur la droite, tandis que les pages au contraste le plus faible sont sur la gauche. Entre ces quatre extrêmes, nous trouvons chaque variation stylistique possible. Pour rendre tout cela plus facile à voir, nous avons inclus deux gros plans des parties inférieures et supérieures.

Que nous enseigne cette visualisation ? Elle suggère que notre concept fondamental de «style» n’est pas forcément approprié, nous considérons ensuite les grands ensembles de données culturelles. Le concept présuppose que nous puissions diviser d’un ensemble d’artéfacts culturels en un petit nombre de catégories distinctes. Dans le cas de notre ensemble d’un million de pages, nous constatons que les variations graphiques sont quasiment infinies. Si nous essayions de diviser cet espace en catégories stylistiques distinctes, une telle tentative deviendrait arbitraire. La visualisation distingue également les choix graphiques les plus couramment utilisés par les artistes de manga (dans la partie centrale du « nuage » de pages) et ceux semble-t-il plus rarement utilisés (en bas et à gauche).

Nos techniques de visualisation de médias peuvent être utilisés indépendamment ou en combinaison avec l’étude de l’image numérique. L’étude de l’image numérique est conceptuellement semblable à l’analyse automatique de textes déjà largement utilisée dans les sciences humaines numériques. L’analyse de texte consiste à extraire automatiquement différentes statistiques du contenu de chaque texte au sein d’une collection, comme les fréquences d’utilisation, la longueur et la position des mots, la longueur des phrases, les fréquences d’utilisation des noms et des verbes etc. Ces statistiques (appelés « caractéristiques » en sciences de l’informatique) sont ensuite utilisées pour étudier les tendances dans un texte unique et les relations entre des genres littéraires, des textes, etc.

De même, nous pouvons utiliser le traitement de l’image numérique pour calculer les statistiques de diverses propriétés visuelles des images : la luminosité et la saturation moyenne, le nombre et les propriétés des formes, le nombre d’arêtes et de leurs orientations, les couleurs-clés et ainsi de suite. Ces fonctionnalités peuvent ensuite être utilisées pour des études similaires — par exemple, l’analyse des différences visuelles entre les nouvelles photographies dans plusieurs magazines ou entre les photographies de presse de différents pays, les changements de style visuel au cours de la carrière d’un photographe ou l’évolution de la photographie de presse en général au cours du XXe siècle. Nous pouvons également les utiliser de manière plus élémentaire — pour l’exploration initiale de n’importe quelle grande collection d’images.

 

Lev Manovich
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

 

Lev Manovich est un théoricien de l’étude des médias et des sciences humaines numériques. Il est professeur au département des arts visuels de l’Université de Californie – San Diego (UCSD) où il enseigne l’art numérique, l’histoire et la théorie de la culture numérique. Il dirige également le Software Studies Initiative au California Institute for Telecommunications and Information Technology (CALIT2). Fondé en 2007, ce laboratoire mène des recherches sur un nouveau paradigme d' »analytiques culturel » (cultural analytics); terme inventé par Manovich pour désigner l’utilisation de méthodes de calcul relatives à l’analyse d’ensembles massifs de données et de flux culturels. L’objectif du Software Studies Initiative est de développer des techniques et des logiciels libres, en les appliquant progressivement à des groupes d’image et de vidéo de plus en plus grands afin de mieux comprendre le fonctionnement de la culture.