le rôle de la main dans les nouvelles technologies

On pourrait dire, dans la continuité d’Aristote, qu’elle est douée de pensée. S’affairant discrètement, doctement, au-dessus d’une feuille de papier et désormais d’un écran, la main œuvre, opère, conçoit. Toutes ces actions répétées, ces mouvements syncopés, ces gestes du quotidien prouvent combien nous lui sommes redevables.

Même si les paléontologues s’accordent à dire qu’elle ne dispose pas de qualités particulières, exceptée son incroyable polyvalence (1), la main, plus qu’un prolongement, est également bien plus qu’un outil. Comme nous aurons loisir de le constater peu après, l’outil constitue une étape dans le long processus de libération de la main. De même, c’est sur elle que reposent aujourd’hui les principaux enjeux des technologies numériques, et notamment le tactile. Autour de cet organe si singulier s’est donc tracée la destinée technique de l’homme, et les appareils et programmes que nous utilisons désormais en tous lieux se recommandent toujours, quelque part, d’une main. Plus encore, c’est à son agilité hors norme, dans la libération du geste comme dans la contrainte du mouvement, à sa formidable capacité à s’adapter et à se jouer des contraintes que l’on doit l’éventail et la richesse des technologies dont nous disposons aujourd’hui pour communiquer, travailler et nous divertir.

Ainsi, il conviendrait d’analyser en quoi les technologies, et en particulier les technologies tactiles, pourraient constituer une étape supplémentaire vers la libération de la main. Car celle-ci est toujours, quelque part, au travail. La main œuvre, c’est d’ailleurs sans doute, à l’image de la citation d’Henri Focillon que nous avons choisie en préambule, sa principale destination. Ainsi, l’idée de vouloir libérer complètement la main peut parfois paraître saugrenue, notamment du fait que les technologies reposent sur l’extrême polyvalence de cet organe, et ce, même si l’interaction homme-machine passe progressivement de la contrainte mécanique du mouvement – par l’usage du clavier – à l’apparente liberté du geste – rendue possible grâce aux environnements tactiles.

Du clavier à l’écran : la main dans tous ses états
Nous souhaiterions ici en profiter pour développer ces deux aspects de l’action manipulante : entre liberté de mouvement et contrainte mécanique. De contrainte, il est souvent question notamment lorsqu’il s’agit de rappeler combien la main est sollicitée par l’exercice des claviers qui ont, depuis de nombreuses années, supplanté l’écriture manuscrite. Le standard de disposition des touches QWERTY, apparu sur les machines à écrire à la fin du XIXe siècle, avait pour objectif de contourner des problèmes d’ordre mécanique : étant donné que les tiges voisines se coinçaient régulièrement, les touches ont été délibérément écartées, et c’est ainsi qu’aujourd’hui encore, la configuration des claviers de modèles QWERTY et AZERTY pour les francophones (excepté le Québec) demeure contraignante et peu efficace (2).

Le passage d’une rangée de signes à l’autre suppose un écartement exagéré des doigts, voire un déplacement de la main, l’accès aux accentuations (pour le clavier français) est difficile, parfois même hasardeux. En résumé, l’usage du clavier suppose un travail soutenu de la main, et là encore, celle-ci résiste, se plie, s’adapte (3). Ainsi, en s’appuyant sur sa polyvalence et son extrême agilité, les claviers modernes et actuels la sollicitent tout particulièrement. C’est peut-être, entre autres choses, cette sur-sollicitation qui favorise l’émergence du tactile, lequel vise à concentrer l’action manipulante sur des tâches simplifiées.

Sur un clavier, les jeux de déplacement, le pivotement de la paume et la percussion mobilisent l’organe tout entier. Sur l’écran tactile, cette charge se concentre peu à peu sur la pulpe des doigts, faisant de cette zone précise l’enjeu capital des technologies à venir. Nous avons observé que les dispositifs classiques mettent à l’épreuve la main et par là-même sa capacité à s’accommoder de gestes peu ergonomiques. Au contraire, dégager une possibilité, c’est libérer partiellement d’autres zones dynamiques pour élever la main vers le geste (4). Alors que les périphériques traditionnels (claviers, souris, manettes de jeu) impliquent une résistance mécanique de la main, la promesse du tactile modifie sensiblement les interfaces hommes-machines afin que celles-ci soient commandées de manière plus souple.

Le modèle tactile : un nouveau paradigme de la relation homme-machine
Si le tactile promet de libérer la main en rendant son action plus discrète, les interfaces et les médiums reposant sur ce principe nécessitent quant à eux une modification des paradigmes traditionnels de la relation homme-machine. Comme nous l’avons évoqué plus tôt, les tâches doivent être adaptées à cette nouvelle typologie manipulatoire, de même que le matériel; dès lors, il n’est pas étonnant de voir des appareils hybrides incluant une tablette et un clavier analogique. Le passage au tactile suppose par conséquent un ensemble de tâches adaptées, d’autres nécessitant toujours la présence de périphériques traditionnels.

Ainsi le tactile se réserve-t-il à un champ opératoire plus restreint, et s’exerce souvent au repos ou dans un contexte de détente. La mise à contribution de la main n’est donc plus, dans ce cas précis, axée uniquement sur l’accomplissement d’un travail — d’un travail, pourrait-on dire, en sous-main. Même si grâce aux progrès de l’ergonomie, aux évolutions conjointes des appareils et des systèmes, l’exercice de la main s’allège peu à peu, il est difficile de concevoir les Nouvelles Technologies sans que quelque part, sur un clavier, une souris ou une tablette, une main ne s’affaire.

C’est ainsi que le tactile introduit par touches discrètes un allègement sensible de la charge manuelle. Cela dit, il ne libère pas intégralement la main de sa fonction médiatrice et de la relation symbiotique qu’elle entretient avec les machines. Nous avons observé que l’action manipulante est à la base de la communication entre l’homme et la machine. Même si les programmes, par leur nature opératoire, visent à décharger la main d’un certain nombre de tâches — notamment les plus répétitives —, l’usage quotidien des appareils met sans cesse en jeu la disponibilité et la souplesse de l’organe manuel.

Pour revenir à nos toutes premières observations, les Nouvelles Technologies doivent beaucoup à la manipulation par le fait que celle-ci constitue un référentiel de premier plan pour l’élaboration des programmes. De près ou de loin, dans la contrainte ou dans le geste, la dimension archétypale de la main en fait, plus qu’un outil, un modèle pour le développement des technologies passées et à venir. Mais alors, quelles seront les futures formes d’interaction entre l’humain et la machine si, comme dans le cas du tactile, l’intervention de la main se fait discrète ? Au-delà de l’écran, est-il possible d’envisager des modes opératoires d’où la main serait exclue (5) ?

Après le contact, l’empreinte
Si la tactilité suppose l’intimité d’un toucher, elle suggère également la présence d’une trace. Pour paraphraser Georges Didi-Huberman, une forme devient une contre-forme, se renverse, par application (6). À l’image de l’empreinte digitale, l’action tactile est avant tout le dépôt d’une image et l’apparition de son double renversé. Il est légitime dans ce cas de se demander comment l’écran sans épaisseur peut-il advenir et comment l’homme pourrait ainsi caresser l’intérieur de la machine ? On pourrait également se questionner, à juste titre, sur le rôle que pourrait tenir la main, sachant que l’enjeu réside aujourd’hui dans son extrémité, où l’effleurement succède peu à peu à la percussion.

Comme nous l’avons esquissé plus tôt, la promesse du tactile est immense. En effet, le glissement progressif d’une action contrainte vers la liberté du geste implique un double enjeu : celui d’un dépassement mécanique et moteur, puisque la main se dégage peu à peu des servilités entraînées par les périphériques traditionnels et celui, opérant au seuil de l’imaginaire, promettant une plus grande promiscuité avec les mondes virtuels. Nous le voyons, cette remise en question du rôle de la main par les dispositifs tactiles fait émerger de nombreuses questions quant aux limites de la technologie.

Ainsi que l’écrivait Paul Valéry, la résistance du solide est le fondement de l’action manipulante (7). Seulement, le tactile met en balance le rôle de la main avec l’évolution de techniques où les matériaux sont de plus en plus légers et compacts, et où les appareils se font toujours plus discrets. La technologie a elle-même écarté du vocabulaire toute notion de volume, de masse, de rugosité. Dans ce contexte, le rôle de la main, du moins celui que les technologies lui ont assigné, est en devenir. Cependant, si les environnements tactiles s’inscrivent dans cette tendance à l’immatérialité, rappelons également que le tactile est un mode opératoire émergent, et qu’à ce titre, il cohabite avec les périphériques traditionnels dont il serait bien hâtif de prédire la fin définitive. Car le propre d’une technologie avancée, écrivait Gilbert Simondon, n’est pas de s’automatiser (8) — libérant par là même l’organe en prenant en charge des procédures répétitives —, mais de demeurer ouverte. « Ouverte » pourrait signifier ici diverse, arbitraire (nous l’avons observé avec le clavier traditionnel) ou accomplie.

Par conséquent, supposer que la libération de la main soit l’étape décisive du progrès revient à exclure toutes les tentatives, les expériences et les objets qui font la diversité de l’offre technologique. Ainsi, il convient d’envisager les technologies tactiles comme une forme d’interaction et une expérience à part entière. Pour toutes ces raisons, le triomphe annoncé du tactile et la fin programmée des périphériques dits « analogiques » apparaissent aujourd’hui bien arbitraires : ce serait en effet dénier à la technologie ses multiples aspects, notamment cette part d’irrationnel dont parlait Lewis Mumford. En revanche, il est tout à fait possible d’imaginer que communiquer sans contact avec les machines soit, un jour, à portée de main.

Olivier Zattoni
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014
Illustrations : © Olivier Zattoni

Olivier Zattoni est doctorant en Sciences de l’Information et de la Communication à l’Université de Nice-Sophia Antipolis.

(1) En effet, André Leroi-Gourhan ne manqua pas de constater que : tout au long de son évolution, depuis les reptiles, l’homme apparaît comme l’héritier de celles d’entre les créatures qui ont échappé à la spécialisation […] de sorte qu’il est capable d’à peu près toutes les actions possibles […] et utiliser l’organe invraisemblablement archaïque qu’est dans son squelette la main pour des opérations dirigées par un cerveau surspécialisé dans la généralisation. Leroi-Gourhan, André. Le geste et la parole. Technique et langage. Paris, Albin Michel, 1964, p.168. [Nous soulignons].

(2) Cet exemple illustre un paradoxe dans l’évolution des techniques, dont certaines demeurent largement utilisées et ce, malgré leur obsolescence. D’ailleurs Lewis Mumford ne manque pas d’écrire à ce propos : les techniques et la civilisation, prises comme un tout, sont le résultat de choix humains, d’aptitudes et d’efforts, délibérés aussi bien qu’inconscients, souvent irrationnels, alors qu’en apparence ils sont objectifs et scientifiques. Mumford, Lewis. Technique et civilisation. Paris, Éditions du Seuil, 1950, p. 17.

(3) L’histoire nous montre que nonobstant sa capacité à se conformer et à se contraindre à un grand nombre de tâches, la libération progressive de la main est centrale dans le développement des techniques. Leroi-Gourhan en esquisse ici la chronologie : …à l’étape initiale la main nue est apte à des actions limitées en force ou en vitesse, mais infiniment diverses ; à la seconde étape, pour le palan comme pour le métier à tisser, un seul effet de la main est isolé et transporté dans la machine ; à la troisième étape, la création d’un système nerveux artificiel et rudimentaire restitue la programmation des mouvements. Leroi-Gourhan, André. Le geste et la parole. La mémoire et les rythmes. Paris, Albin Michel, 1964, p. 43.

(4) Cette potentialité, qui caractérise la démarche technique, s’ancre profondément dans la genèse de ses objets. Gilbert Simodon écrit : …construire un objet technique est préparer une disponibilité. Simondon, Gilbert. Du mode d’existence des objets techniques. Paris. Aubier, 1959, p. 246. [Nous soulignons].

(5) Cette question d’un rapprochement ou d’une intimité entre l’homme et l’univers digital demeure : sommes-nous génétiquement codifiés pour l’au-delà virtuel ? Infatigable et inconscient explorateur, l’homme du XXIe siècle touche presque du doigt l’espace digital planqué derrière la vitre. Bliss de la Boissière, François. « Être plus : l’instinct interactif », In Chronic’art, n° 70, 2011. Paris : Les Éditions réticulaires, p. 26.

(6) Cf. Didi-Huberman, Georges. La ressemblance par contact. Archéologie, anachronisme et modernité de l’empreinte. Paris. Les Éditions de Minuit, 2008, p. 99.

(7) Cf. Valéry, Paul. « Discours aux Chirurgiens ». In Œuvres I. Paris. La Pléiade, 1960.

(8) Gilbert Simondon a bien montré comment le véritable perfectionnement d’un objet technique n’était pas du tout fonction de son degré d’automation — sorte de perfection interne de la machine —, mais, au contraire, de sa marge d’indétermination : de sa capacité à demeurer « ouvert ». Didi-Huberman, op.cit., p.34.

quelques notions de technoéthique numérique

 

La numérisation du monde est sans aucun doute le plus important fait de civilisation actuellement en cours d’accomplissement. La numérisation de l’existence humaine n’est pas exactement la même chose, car d’un point de vue philosophique il ne suffit pas de dire que nous vivons dans un monde numérisé, qui serait un environnement particulier, il faut se demander si, et à quel point, et avec quelles conséquences, nous sommes numérisés.

Le numérique, sujet philosophique
L’impression que laissent les deux dernières décennies est que nous subissons l’innovation numérique, avec délices pour certains et avec regret pour quelques autres, mais dans tous les cas nous la subissons. Nous avons certes choisi les équipements que nous utilisons, mais lorsque tout le monde choisit en même temps la même chose, lorsque tout le monde développe les mêmes besoins qui n’étaient pas imaginés auparavant, on peut se poser des questions. Certains de mes collègues en sciences humaines ont l’explication : c’est à cause du complot capitaliste qui nous oblige à consommer et nous manipule. Je suggère de reprendre le problème autrement, au niveau éthique, au niveau des micro-expériences ordinaires des personnes humaines.

Avec cette méthode, on dispose de bien moins de réponses. Mais on peut avoir le sentiment qu’on parle de la véritable réalité, on parle de ce qui se passe dans la relation intime quotidienne avec les objets technologiques — téléphone, ordinateur, console de jeu, mais aussi voiture ou équipement domestique high-tech. Rien à voir avec les discours officiels et institutionnels sur le numérique, notamment ceux de politiciens qui veulent tout réguler, mais ne savent pas comment on prononce « iPad » parce qu’ils n’en ont jamais entendu parler dans leur vraie vie. Si d’un autre côté on est aussi agacé par le battage médiatique des firmes qui lancent les produits techno comme des shampoings ou des desserts, on a une bonne perception, je crois, de la manière dont les questions de fond sur la mutation numérique ont tendance à s’engluer dans le bruit sociétal ambiant. Pour les récupérer, il faut, me semble-t-il, s’attaquer à la dimension micro-éthique du numérique contemporain.

La constitution d’une technoéthique
Dans la seconde moitié du 20ème siècle s’est constituée, quasiment en même temps aux États-Unis et en Europe, une philosophie de la technologie qui est maintenant un domaine spécifique dans le monde universitaire (Mitcham, 1994). Depuis quelques années, ce domaine est travaillé par la question de réintégrer ou pas des questions proprement éthiques, des questions de valeur ou même de morale, ce qu’on appelle une approche « normative » (Heikkerö, 2012). La demande sociale sur les mutations technologiques va plus loin qu’une demande d’interprétation, elle est une demande d’évaluation, de normes, personnelles et collectives. Pour produire une analyse des valeurs, ou pour analyser des questions d’acceptabilité, pour faire de l’éthique, il importe d’établir ce qu’on appelle une ontologie, c’est-à-dire un repérage des entités existantes et impliquées dans de potentielles relations.

La philosophie de l’environnement et celle de la technologie sont en train de mettre au point des ontologies assez radicalement différentes de celle qu’utilise couramment l’Occidental moyen. Pour la technologie, c’est l’idée de réseau impliquant des acteurs humains et non-humains (eux-mêmes matériels ou non) qui s’est imposée à partir la sociologie des sciences, ou alors la notion assez comparable d’entités hybrides. L’espèce que nous sommes, Homo Sapiens Technologicus (Puech, 2008) est composé d’individus hybrides, qui ont hybridé leur physiologie et leur psychologie d’humains avec des prothèses de tout type (lunettes, dents artificielles, vaccins et médicaments, stimulateurs cardiaques, mais aussi terminaux de communication téléphonique et informatique, et ressources informationnelles stockées sur tout support, papier, numérique, et de plus en plus en ligne).

En s’appuyant sur de l’innovation ontologique (la notion d’infosphère en fait partie), le projet du domaine émergent appelé « technoéthique » est de produire une réflexion spécifique pour les nombreuses situations inédites de la modernité (Lupiccini & Adell, 2008) : les décisions bioéthiques devant lesquelles nous placent les nouvelles technologies médicales, la relation avec des ordinateurs, les nouveaux médias et notamment ceux qu’on dit « sociaux », les questions de soutenabilité (écologique, économique, sociale) de nos options technologiques et des comportements qui en dépendent, les nouvelles façons d’éduquer, mais aussi de faire la guerre, la surveillance généralisée, les OGM et nanotechnologies, les fantasmes transhumanistes d’humanité augmentée…

La proximité avec les objets numériques, du silex au silicium
Nous vivons dans un monde de significations, un monde interprété. Nous n’entendons pas des bruits crissants, écrivait Merleau-Ponty, nous entendons des pas sur le gravier, et éventuellement nous entendons un membre de la famille qui rentre à la maison. Autour du corps humain percevant fonctionne une sorte de sphère interprétative, qui à tout moment constitue un monde dans lequel nous savons nous orienter parce que nous lui trouvons un sens. C’est avec cette méthode que Don Ihde a étudié la manière dont les objets technologiques structurent et orientent nos journées, depuis la sonnerie du réveil, en passant par la préparation d’un repas, les déplacements, les communications, etc. (Ihde, 1990).

Le monde dans lequel nous vivons est une technosphère, et ce n’est en rien une aberration pour les humains. Les murs peints de la caverne, la chaleur du feu et celle des vêtements, l’environnement sonore de la parole et de la musique (toutes deux des techniques humaines), l’odeur du repas qui mijote et la multitude des objets fabriqués et à fabriquer constituaient la sphère existentielle des humains néolithiques. Chacune de ses dimensions se prolonge jusqu’à nous. Être humain signifie déployer autour de soi une technosphère et y vivre d’une manière qui est unique. Les autres formes de vie sont « sauvages », éminemment respectables, mais pas humaines. Il faut préciser cette expression. Être humain ce n’est pas seulement déployer une technosphère et y vivre au sens d’y subsister, s’y trouver, plus ou moins par hasard, mais c’est essentiellement habiter le monde, et en l’occurrence habiter la technosphère. Habiter signifie avoir tissé des liens fonctionnels qui sont des liens de signification et d’attachement à un environnement.

La naturalité de la technologie pour l’être humain ne tient pas au fait que nous la fabriquons, mais au fait que nous l’habitons, c’est-à-dire que nous créons avec notre technosphère une relation de familiarité fonctionnelle de tous les instants, qui outre ses dimensions matérielles utilitaires possède de complexes significations psychologiques, émotionnelles, symboliques, et éthiques. Les humains habitent (au sens philosophiquement le plus fort) naturellement la technosphère, quelle qu’elle soit, basée sur le silex ou sur… le silicium. Ils peuvent s’épanouir dans cet environnement, et seulement dans cet environnement ils peuvent s’épanouir en tant qu’humain. La notion d’épanouissement d’une forme de vie (flourishing en anglais) vient de l’éthique environnementale et elle a fait jonction avec la notion de « vie bonne » qu’utilise l’éthique appliquée pour parler du bonheur ou des formes de vie les plus souhaitables pour un humain. La technosphère est le lieu d’épanouissement naturel de l’humain en tant qu’humain. L’idée est moins étrange si on la prend avec un peu de rigueur : elle ne signifie pas que la technosphère suffit à l’épanouissement humain ni qu’elle le produit directement.

Examinons la technosphère particulière des humains contemporains (dans les pays industrialisés). Elle est partiellement matérielle (habitat, innombrables objets) et partiellement immatérielle, composée des contenus numériques qui sont accessibles via certains de ces objets matériels. Parmi les objets matériels naturels qui nous « entourent » figure notre propre corps, et dans ce corps un cerveau qui est lui-même un objet de traitement de l’information. Ces parties centrales de la technosphère, notre corps, notre cerveau, notre mental, nous les « sommes », avec plus ou moins d’intensité — comme une sorte de gradient dans la sphère du soi : je suis plus mon visage que mes pieds, par exemple, et plus ma langue maternelle que l’équation de l’attraction universelle, même si ces deux contenus informationnels font partie de la sphère du moi. La partie de la technosphère qui prime aujourd’hui est l’infosphère, la sphère des contenus informationnels, qui même lorsque leur lieu de stockage et de traitement est naturel (le cerveau) sont des entités techniquement engendrées (la langue maternelle, les équations de la physique, mais aussi les formes culturelles complexes des émotions, liées à une culture, et bien entendu les systèmes de valeur). Le soi est entouré d’une infosphère et celle-ci est de plus en plus numérique sur les périphéries (Clark, 2003). Le soi en est le centre, un centre lui-même largement informationnel (le mental), qui « tourne » sur un « hardware » biologique.

Les notions de technosphère ou d’infosphère ne décrivent donc pas du tout une Matrice externe qui serait contrôlante et déterminante, qui nous manipulerait ou nous tromperait, mais elles évoquent de manière plus neutre un environnement, matériel et informationnel, qui crée les conditions de la vie humaine. La numérisation récente de la technosphère, qui fait toute l’importance actuelle et grandissante de l’infosphère, est l’élément de nouveauté qui me semble le plus important aujourd’hui et qui constitue une disruption à plusieurs niveaux.

Le numérique ne constitue pas une technosphère du même type que les techniques de la pierre taillée ou celles de l’agriculture, qui ont accompagné l’essentiel du développement de l’humanité. La ligne d’évolution concernée est le langage, l’échange informationnel qui nous a fait décoller à partir du silex, et l’électronique est l’étape actuelle de cette ligne d’évolution, l’étape silicium. Le numérique cumule ainsi les effets des révolutions informationnelles précédentes, il utilise en les propulsant vers une nouvelle puissance les capacités originaires du langage, de l’écriture (même si c’est du code qu’on écrit), et de l’imprimerie. Pourtant, comme les autres évolutions de la technosphère, le numérique constitue un ensemble de moyens et pas une fin en soi. Il incarne même l’essence de la technologie, qui est un potentiel et un potentiel pour l’humain : Si l’essence de la technologie est de tout rendre facilement accessible et optimisable alors l’Internet est le moyen technologique parfait (Dreyfus, 2001: 1-2).

Mais c’est au niveau de l’interaction individuelle avec des technologies particulières que se déroule l’essentiel du processus d’humanisation dans la technosphère, selon les approches qui me semblent les plus prometteuses. Le maître en est le philosophe Albert Borgmann. Il analyse la manière dont certaines activités techniques, comme la cuisine pour préparer un repas, par exemple, peuvent être des foyers de sens et de constitution de la valeur humaine, individuelle et partagée. Il les appelle des activités et technologies « focales » et les oppose aux activités et objets purement utilitaires et commerciaux, les produits de consommation courante, ce qu’on appelle commodities en anglais (Borgmann, 1984). Une perte massive d’authenticité dans la vie contemporaine est due à la « commodification » de la vie courante, lorsqu’elle ne consiste qu’à faire fonctionner des instruments qui sont des produits de consommation courante. Inspiré par Heidegger, mais beaucoup moins technophobe que lui, Borgmann essaie de décrire le sursaut éthique, la prise de conscience, qui nous permettrait de nous réapproprier les potentiels de la technosphère au lieu de simplement les faire fonctionner. Sans qu’on ait à suivre ni à évaluer le détail des solutions particulières qu’il propose, ses méthodes s’appliquent à l’infosphère et elles aident à mieux comprendre les questions posées par la proximité existentielle du numérique aujourd’hui.

L’infosphère proximale et sa valeur
Une première infosphère, dans la technosphère actuelle, peut être dite « distale », c’est-à-dire lointaine, à distance. Cette distance est celle du cloud et des serveurs distants qui font fonctionner les liens électroniques. Le lieu particulier d’où opère la technosphère distale est un lieu d’un nouveau type, le global. Connectée à l’infosphère distale, l’infosphère proximale est par définition celle qui est proche du soi, de la personne humaine, et même comme nous l’avons dit qui en constitue, en son centre, une partie (informationnelle). Pour l’humain industrialisé moderne, le téléphone mobile et le micro-ordinateur connecté sont les supports matériels de l’infosphère proximale. Les logiciels et données utilisés quotidiennement sur ces outils, les mails et pages personnelles, les réseaux socionumériques et les sites Web favoris, sont les éléments informationnels usuels de l’infosphère proximale. Mais la carte de crédit dans notre portefeuille et tous les micro-supports électroniques, passifs ou actifs, actuels et à venir, sont autant de points de présence de l’infosphère proximale, dans la proximité physique du corps et dans la proximité existentielle du soi.

La propriété spécifique de cette infosphère est justement sa proximité existentielle, qui est à la fois proximité physique, proximité mentale, proximité émotionnelle. Une étape majeure a été franchie par la diminution de taille des outils numériques : après le high-tech, le small-tech (Hawk et al. (eds), 2008). Une écologie nouvelle des accès au numérique est en train d’apparaître, en conséquence de la portabilité puis de la portabilité-vestimentaire (wearability) des outils numériques. À l’intérieur de méta-réseaux, la technosphère globale (serveurs et relais notamment) et l’infosphère globale, qui sont l’écosystème numérique global, se développent des écosystèmes numériques locaux. Mais à la différence de leurs homologues naturels, les écosystèmes numériques locaux ne sont pas composés d’une multitude d’espèces et d’organismes individuels, ils sont centrés autour d’un individu d’une seule espèce, une personne humaine.

C’est ainsi que l’infosphère, la nouvelle forme, numérique, de la technosphère constitue notre nouvel environnement existentiel. Elle est le médiateur des interactions avec le monde, « derrière » les systèmes sensoriel et moteur qui opèrent l’interface primaire. Pour parler avec un autre humain j’utilise des organes naturels, ceux de la voix et de l’ouïe, éventuellement complétés par la vue, les comportements gestuels produits et perçus, etc. Mais cette sphère de médiation avec le monde et les autres intègre maintenant un lien numérique, via un micro et un clavier, un écran, et de nombreux objets numériques intermédiaires.

Même la conversation « présentielle » (dans la vie réelle) est médiatisée par l’infosphère, car c’est le plus souvent par la mise en contact de nos infosphères que nous avons organisé la rencontre « physique » qui nous permet de discuter, et cette conversation aura probablement des suites dans l’infosphère : un sms de remerciement, un mail de suite pour avancer sur un projet, une actualisation sur un réseau socionumérique, ou l’organisation dans l’infosphère d’une autre rencontre dans le monde physique. La proximité des autres, et notamment de ceux qui nous sont chers ou importants, à quelque titre que ce soit, est médiatisée par l’infosphère. La proximité vécue dans et par l’infosphère est donc profondément humaine et elle correspond à ces potentiels d’humanisation et d’épanouissement qui caractérisent, nous l’avons vu, les technosphères. Elle constitue l’interface privilégiée avec le monde, dans la gestion du temps et de l’espace, des relations avec les autres, de la mémoire et des projets, de la consommation commerciale et de la vie professionnelle.

Sur de nombreuses questions, le discours courant qui dévalorise à la fois les technologies numériques et l' »individualisme » me semble être une stratégie de défense par laquelle les pouvoirs institués résistent à l’émergence de nouvelles valeurs et surtout de nouveaux potentiels d’action, issus de la médiation directe et en réseau entre des individus qui s’épanouissent à l’intérieur d’infosphères proximales de plus en plus riches, non pas seulement quantitativement, mais qualitativement, en un sens culturel et même éthique — un empowerment numérique à très large spectre.

Deux phénomènes nouveaux donnent une idée particulièrement claire de ces potentiels. Le premier est la conversation virtuelle permanente, le fait que dans l’infosphère nous sommes en conversation continue avec un certain nombre d’humains, qui peuvent être distants (physiquement, mais aussi socialement). Nous pouvons à tout moment reprendre la parole dans cette conversation en cours, par un sms, un message sur un réseau quelconque, sans qu’il soit besoin d’initier et de clore rituellement la conversation comme lors d’un appel téléphonique traditionnel.

Avoir toujours quelqu’un à qui parler, ou plus exactement, être toujours en train de parler, virtuellement, à un ensemble de personnes choisies, c’est une donnée existentielle structurante et d’un type nouveau pour les humains — même si comme tous les potentiels humains, elle a aussi ses pathologies (Ess 2009, Turkle 2011). Le second phénomène remarquable est la proximité du global, via les connexions numériques, par lesquelles nous vivons au croisement de flux qui ignorent les divisions géographiques et politiques qui sont encore la principale structure du monde réel. Les sensibilités politiques, mais aussi écologiques, en sont profondément modifiées et des potentiels politiques peut-être enfin soutenables sont en train de naître dans la connexion des infosphères. La motivation politique, mais aussi et surtout les motivations écologiques, et, plus profondément, éthiques, qui aujourd’hui en prennent le relais, s’alimentent dans un nouveau type de ressentis, d’émotions, d’apprentissages et de valeurs dont le lieu est l’infosphère proximale (Rifkin 2009, Castells 2012).

Soin de soi et sagesse dans l’environnement numérique
Pour quelle raison la montée en puissance d’une infosphère proximale représente-t-elle un potentiel éthique si puissant et si positif ? Pourquoi penser qu’elle échappe largement aux déterminations économiques (le profit que cherchent les marchands de technologie) et idéologiques (la stupidification que cherchent les médias) et les remplace par un potentiel d’action authentique ? Je voudrais citer deux raisons : (1) technologies et médiations sont désormais identiques, et (2) l’infosphère proximale est attachement-pertinente.

(1) Les technologies sont des médias, c’est pour cette raison que notre technosphère est d’abord une infosphère communicationnelle. Les travaux récents sur une éthique de la médiation technologique (Verbeek 2011, Van den Eede 2012) explorent l’intermédiation permanente de nos expériences du monde, des autres et de nous-mêmes, à travers (au sens propre) les technologies contemporaines. Il faut d’abord réinterpréter la technosphère en tant qu’outil de médiation. Même l’automobile, la technologie centrale de l’ère industrielle récente, est un instrument de médiation physique et sociale, médiations enchevêtrées, à la fois dans les fonctions de transport des personnes et les capacités sociales que cela confère, mais aussi dans la fonction symbolique de prestige social. Les technologies sont depuis longtemps vécues dans le monde des signes, les sociologues nous le disaient (Ervin Goffman, Bruno Latour). Mais il y a plus dans la médiation généralisée qu’apporte le numérique. L’idée d’infosphère proximale essaie de saisir ce phénomène par lequel la médiation ubiquitaire (présente partout, en tout lieu) et pervasive (présente partout, à l’intérieur de tout) des technologies numériques ni ne « double » ni ne « parasite » le monde réel, mais aménage nos accès et constitue notre interface avec le monde réel.

(2) Il faut comprendre ensuite que l’infosphère proximale est attachement-pertinente, c’est-à-dire qu’elle relève des mécanismes psychologiques et existentiels décrits par la théorie de l’attachement (voir http://fr.wikipedia.org/wiki/Attachement). Dans sa version existante, la théorie de l’attachement ne s’intéresse qu’aux relations entre êtres humains, où elle étudie la formation d’un lien entre l’enfant et son donneur de soin (care giver) : le lien d’attachement, qui est essentiel à la constitution psychologique de la personne humaine, et qui est notamment destiné à lui procurer une base de sécurité lui permettant d’explorer le monde, de s’épanouir. On peut le plus souvent appliquer point par point le schéma « attachementiste » des interactions mère/enfant dans les divers contextes de la technosphère proximale, particulièrement à propos du smartphone, qui apparaît ainsi comme à la fois le principal outil d’accès à l’infosphère proximale et le principal objet (numérique) d’attachement. Comme dans les autres relations d’attachement, la relative « addiction » qu’il crée est essentiellement une relation de réconfort virtuel en arrière-plan, qui permet d’explorer le monde et de s’épanouir comme une personne humaine. On ouvre ainsi la voie à une interprétation technoéthique de la réassurance et du réconfort dans les micro-expériences de la technosphère et de l’infosphère. Elle est là et elle fonctionne bien, au bout de mes doigts : retirer de l’argent au distributeur (technosphère), regarder si on a un nouveau mail (infosphère), ce sont autant de micro-réassurances qui permettent d’avancer.

Dans ses derniers travaux, Michel Foucault développait la question éthique décisive (et oubliée) du souci de soi en s’intéressant à ce qu’il appelait les « techniques de soi » (Foucault, 1994). Ces éléments sont aujourd’hui repris (Dorrestjin, 2012) à propos des technologies contemporaines et de leurs potentiels de constitution du soi, notamment en reprenant le mécanisme que Foucault a mis au jour : la possibilité pour un sujet de se constituer de manière « résistive » (Puech, 2008) en se réappropriant les potentiels (éventuellement technologiques) qui lui sont fournis par un contexte de domination. Sur cette voie, on peut concevoir une forme de sagesse numérique, qui serait l’effort de constitution de soi par la médiation d’une infosphère proximale que le soi investit réellement, dans une recherche d’authenticité, d’autonomie et d’harmonie, qui n’a rien à envier aux formes anciennes d’épanouissement de la personne humaine, bien au contraire.

Michel Puech
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

Michel Puech est Maître de conférences en Philosophie à l’Université Paris-Sorbonne, et est également membre et chercheur associé de l’Équipe ETOS (Éthique, Technologies, Organisations, Société), rattaché à Télécom École de Management, Institut Mines-Télécom.

télescopages numériques

Dans les années 90, les recherches menées par l’équipe du Cetcopra au moment de l’introduction des technologies numériques dans les avions de nouvelle génération (en particulier l’A.320), mais également dans les centres de contrôle aérien ou la maintenance des systèmes de sécurité aérienne, mettaient en évidence un certain nombre de phénomènes nouveaux (Gras & al. 1995). Nous avions notamment observé que l’informatisation des cockpits modifiait le mode de présence des pilotes à bord, leur représentation du vol, la définition même de leur métier et, de façon plus générale, les rapports au corps et aux sens. Je voudrais, à l’aune des développements les plus récents de ces technologies, revenir sur certains de ces questionnements. D’une part pour en montrer l’actualité, et ce malgré la banalisation du numérique et son extension à toutes les sphères de la société, d’autre part pour interroger cette persistance et tenter de lui donner un sens.

Numérique : retour sur image
Au sens littéral, le passage de l’analogique (mécanique) au numérique (et de l’échelle décimale à l’échelle binaire) se caractérise par la transformation d’un message en un code préétabli qui ne lui ressemble en rien et que seuls sont capables de déchiffrer les machines et ceux qui les programment (Triclot 2008, Mercier & al.1984). Ce seul fait représente une discontinuité majeure avec la phase analogique antérieure dans laquelle, par le biais des sensations et des retours d’effort, l’opérateur se trouvait de plain-pied par son corps dans la réalité qu’il avait à interpréter (Gras & Poirot-Delpech 1989).

À la fin des années soixante, Jean Baudrillard fut peut-être l’un des premiers à avoir anticipé le bouleversement introduit par ce nouveau rapport aux objets et au monde. En remplaçant l’adresse par l’action à distance (la télécommande) — que Baudrillard désignait après Pierre Naville (Naville 1963) par « gestuel de contrôle » — les nouveaux objets tendraient selon lui à instituer un type de naturalité inédit, à la fois englobant et abstrait. À la préhension des objets qui intéressait tout le corps — écrivait-il alors — se sont substitués le contact (main ou pied) et le contrôle (regard, parfois ouïe) (…) Tous les objets modernes se veulent d’abord maniables. Mais quelle est cette main en fonction de laquelle leurs formes se profilent ? Ce n’est plus du tout l’organe de préhension où aboutit l’effort, ce n’est plus que le signe abstrait de leur maniabilité (…) Le corps humain ne délègue plus que les signes de sa présence aux objets dont le fonctionnement est par ailleurs autonome. Il délègue ses extrémités. (…) L’outil, l’objet traditionnel n’épousait pas du tout les formes de l’homme : il en épousait l’effort et le geste. ( …) Aujourd’hui le corps de l’homme ne semble plus être là que comme raison abstraite de la forme accomplie de l’objet fonctionnel (1).

Ce découplage entre sens et connaissance, sens et signification est justement ce qui est apparu comme une difficulté majeure aux premiers usagers de ces technologies. Revenir aux questionnements de cette époque, ce n’est pas porter un regard nostalgique sur le passé, mais trouver dans ce passé des réponses aux difficultés présentes. Car même métabolisés, ou non verbalisés à l’intérieur d’un discours cohérent, les problèmes demeurent. L’attitude qui consiste, face à ces problèmes, à dénoncer la force de l’habitude, la résistance au changement, ou à invoquer l’argument de l’inévitable transition générationnelle (théorie des « Digital Natives » prétendument adaptés aux nouveaux environnements numériques) ressemble à un déni au service d’une fuite en avant technologique. Elle repose surtout sur une curieuse croyance; celle qui consiste à considérer que les êtres humains sont toujours en retard sur les progrès de la technologie, donc à accorder une forme d’extra-territorialité ou de transcendance à la technique.

Interprète ou surveillant ? Le cas de l’informatisation des cockpits
Pour illustrer le trouble occasionné par la rupture numérique, le terrain aéronautique, fer de lance et laboratoire vivant des technologies avancées, se présente ainsi comme un témoin privilégié. Tout l’intérêt des phases de transition — telle que celle qu’il nous a été donné d’observer — est de laisser apparaître, pendant un temps très court, les lignes de faille de mondes encore en gestation. Le cas de l’Airbus 320 mis en service à la fin des années 80 nous servira ici d’entrée. Parmi les innovations les plus marquantes de ces avions figurait le FMS (Flight Management System). Le FMS gère un grand nombre de paramètres à partir d’informations qu’il reçoit du sol (les contrôleurs, les balises électromagnétiques) ou de l’espace (données satellites). Il améliore la gestion de la trajectoire par un pointage permanent, est capable de corriger les dérives ainsi que les configurations de l’avion (pour avoir le moins de résistance au vent par exemple ou la meilleure assiette), gère la consommation de carburant de façon optimale…

Celui-ci fut d’abord présenté comme le prolongement du Pilote Automatique (PA), qui existait depuis l’entre-deux-guerres. Mais à la différence de l’automate classique, qui fonctionnait suivant une boucle de rétroaction simple, le nouvel automate n’exécutait pas seulement les directives du pilote (les données entrées par celui-ci avant chaque vol), il les interprétait sur la base d’algorithmes conçus par d’autres (Scardigli 2001). Au moment de son introduction, les pilotes en parlèrent ainsi comme du « troisième homme à bord » (désignant par là le groupe des ingénieurs). Mais un homme qui avançait pour ainsi dire masqué, les écrans n’affichant que les informations que la communauté des ingénieurs, selon des critères propres à leur culture de métier et aux paramétrages des vols d’essai, avait jugé utile de montrer aux opérateurs de première ligne. L’opacité des ordinateurs et des algorithmes, requalifiés à cette occasion de « boîtes noires », ne résistait pas seulement à l’usage (Akrich 1990), elle redéfinissait subrepticement celui-ci selon des modalités qui échappaient aux usagers eux-mêmes et allaient peu à peu devenir la norme.

La difficulté des opérateurs de première ligne à coopérer avec de telles machines se manifesta d’abord par un nombre significatif de situations de communication conflictuelles et d’incompréhension. Dès la fin des années 80, et dans les années 90, les experts en sciences humaines furent ainsi invités à se pencher sur des phénomènes récurrents de baisse de vigilance, de perte ou de dispersion de l’attention, de fatigue (dans l’aéronautique, on évoqua le phénomène de perte de conscience de la situation avant de lancer plusieurs campagnes de sensibilisation sur ce thème). Travaillant à la même époque sur les nouveaux outils de supervision des centrales nucléaires, le sociologue Francis Chateauraynaud eut recours à la notion de « déprise » pour qualifier le sentiment exprimé par les opérateurs d’avoir perdu prise sur leur environnement (Chateauraynaud 1997, 2006).

Michel Freyssenet mettait de son côté l’accent sur la nouvelle division du travail en train de se mettre en place dans le cadre des nouveaux processus d’automatisation aboutissant, selon lui, à l’érosion de l’intelligence pratique. La juxtaposition de connaissances partielles, si elle pouvait superficiellement être assimilée à un processus de requalification, préfigurait en réalité l’impossibilité d’acquérir une vision et une connaissance globales des systèmes et des installations (Freyssenet 1992). On pourrait résumer cette situation par la remarque pleine d’ironie adressée par le physicien Victor Weisskopf à ses étudiants du MIT devant leur goût prononcé pour les expérimentations informatisées : Quand vous me soumettez le résultat, l’ordinateur comprend la réponse, mais vous, je ne crois pas que vous la compreniez (Sennett 2010, 60) (2).

Dans ces avions, l’engagement du corps continue, certes, d’être nécessaire à la conduite du vol. Mais cette forme d’engagement se trouve pour ainsi dire reléguée par des innovations qui rendent l’avion à la fois plus autonome, plus confortable et plus sûr. Il n’y a, à proprement parler, plus de bons ou de mauvais pilotes, mais des « gestionnaires de systèmes », comme les pilotes se désignent eux-mêmes, qui veillent au bon déroulement des process, dialoguent avec les ordinateurs, entrent des données et sélectionnent des modes. Ce qui veut dire que l’environnement immédiat du cockpit, avec ses écrans, ses modalités d’affichage de l’information, concentre désormais l’essentiel de l’attention des pilotes. L’espace perceptif s’est réduit d’autant. C’est sur ce « rétrécissement » de l’expérience corporelle qu’il convient ici d’insister comme cadre d’une refonte du rapport aux autres et au monde qui ne cesse pas d’être problématique.

Ambiguïtés des environnements numériques : persistances et métamorphoses. Le cas du Rafale
L’une des particularités des technologies numériques tient peut-être au fait qu’elles ne se stabilisent jamais complètement, et par conséquent, que les problématiques qui les concernent ne vieillissent pas non plus. Tout processus d’innovation entraîne des reconfigurations multiples, qui cessent une fois l’objet stabilisé. Mais dans le cas des technologies numériques, il semble que le stade de l’innovation, avec ses caractéristiques propres, ne doive jamais cesser. Les questions posées par les premiers usagers du Rafale (lorsque nous nous sommes entretenus avec eux au moment de la prise en main de l’avion) sont par exemple analogues à celles que soulevaient les pilotes de ligne lors de l’entrée en service des glass cockpits (Dubey & Moricot, 2003).

C’est ce qu’illustre le cas de la liaison automatique de données du Rafale (dite liaison 16). Pour certains pilotes, l’intégration systémique — matérialisée dans le cockpit par la possibilité de voir dans un rayon de 360° autour de l’avion — représente l’occasion de placer le pilote au centre du théâtre d’opérations, en situation de tout voir (les pilotes désignent cette situation par l’expression « God’s eyes view »). Elle réaliserait ainsi un vieux rêve du pilote. Mais à tout voir, ne risque-t-on pas de ne plus rien voir de particulier ? L’information qui circule dans les « tuyaux », et s’affiche sur les écrans, est en effet une information filtrée qui correspond à des choix effectués en amont. Elle est donc déjà chargée de sens, mais d’un sens construit dans une autre temporalité (et dans une autre représentation de l’espace) que celle dans laquelle se trouvent les pilotes lors de la mission. C’est ce que pointent les pilotes les plus expérimentés. Un Awacs émet ses détections et centralise celles des avions sous son contrôle. Il les redistribue à tout le monde. Il y a un canal où il diffuse tout (piste de surveillance) et un autre où ne figurent que les pistes que le contrôleur de l’Awacs a sélectionnées (piste de contrôle). Dans l’avion, on peut donc tout voir, ou seulement l’info filtrée. On a le choix. Cependant l’avion filtre quand même lui aussi techniquement une certaine partie. Il applique une liste de priorités et on n’a pas la main sur cette liste de priorités figées au développement (pilote de Rafale) (3).

Cette construction a beau faire intervenir de nombreux acteurs (dont l’ingénieur concepteur de logiciel dans son bureau d’étude), donc être sociale, elle n’est pas partagée ou commune pour autant. C’est ce que traduit très clairement la référence à « la main », dans « on n’a pas la main ». Certaines priorités (qui sont toujours fondées à terme sur une hiérarchie de sens) ont été figées en amont, et échappent ainsi à un contrôle direct, au lien que le corps (la main) maintient avec le monde extérieur, et qui reste le garant d’un engagement. Délocalisée et disjointe de la situation, la production de l’information est chargée d’ambiguïtés qui ne font que refléter la difficile coexistence d’espace-temps hétérogène. Tout le problème devient, dès lors, celui de la construction d’une information qui ait le même sens, au même instant, pour tous les acteurs du système, c’est-à-dire d’une réalité commune.

Capture du corps et perte de distance
Cela m’amène au dernier point que je voudrais aborder, celui vis-à-vis duquel nous avons le moins de recul. Je veux parler des effets de l’intégration de plus en plus poussée du corps et des sens au dispositif technique. D’une certaine façon, les nouvelles interfaces ont pris acte des limites du paradigme informationnel ou computationnel (modèle qui dominait encore la première phase d’informatisation) en prenant davantage en compte certaines caractéristiques du mode d’être incarné des êtres humains. C’est l’une des raisons pour lesquelles l’on insiste beaucoup aujourd’hui sur l’importance du design en conception, ou sur l’écologie des systèmes, c’est-à-dire sur la manière dont la réalité produite par les ordinateurs peut nous toucher directement par les sens. Je n’ai pas la place d’exposer ici les théories de l’action située, ou de l’écologie perceptive de Gibson, au fondement de cette nouvelle approche. Mais c’est ce qu’illustrent de façon concrète les interfaces de l’avion de chasse Rafale qui prennent acte de l’économie que représente pour l’opérateur humain les actions non réfléchies, directement guidées et informées par l’environnement physique de travail. Ce changement de paradigme se manifeste par la façon dont les pilotes désignent cet avion en le qualifiant de « naturel » : Il y a beaucoup d’informations sur cet avion, mais c’est un avion relativement naturel, tu comprends vite où tout se trouve. Tout tombe sous la main (pilote de Rafale).

Mais cette « reconnaissance » du rôle joué par le corps constitue-t-elle une réelle rupture par rapport aux phases de développement antérieures ? Rien n’est moins sûr. Il faut ici distinguer le confort d’usage de ces nouveaux environnements, dans lesquels, comme on vient de le voir, le corps se sent immédiatement à l’aise, de l’apprentissage des sens tel qu’il se pratiquait jusqu’à présent. Traditionnellement, les pilotes apprennent très tôt à se défier de leurs sensations, et dans une certaine mesure, à ne se fier qu’à la lecture de leurs instruments. Mais cette manière de se protéger des illusions sensorielles, inhérentes au mouvement dans un espace sans repères (la troisième dimension), en apprenant à les reconnaître, est encore un savoir corporel acquis pas à pas tout au long de la formation. Le risque est désormais tout autre. C’est celui d’une fausse présence, ou d’une présence pour ainsi dire sans distance ou sans conscience.

C’est le scénario que j’appellerai « Matrix » dans la mesure où il suppose une forme d’adhérence à la réalité produite par les ordinateurs et les systèmes. Devant ce type de reconfiguration, on insiste généralement sur les phénomènes de sur-confiance (délégation aux automatismes) qui peuvent en découler, ou encore sur la difficulté pour les opérateurs humains de revenir dans la boucle en cas de défaillance du système. Mais le principal danger que j’aperçois réside plutôt, me semble-t-il, dans le développement de phénomènes que je qualifierai d’anomiques au sens où l’engagement (y compris corporel et sensoriel) dans une situation n’offre plus de garantie quant à sa signification réelle, mais aussi morale. En l’absence d’extériorité, d’un point d’où il serait permis de prendre des distances, la situation comme le réel lui-même, deviennent d’une certaine manière des « choses » auxquelles il est demandé de croire sans paroles. S’ensuivent des situations marquées, comme je l’ai dit, par l’ambiguïté, mais surtout par un retard de plus en plus important de la conscience sur les décisions qui sont prises. La réalité produite par le système technique ne fait pas qu’introduire un niveau de réalité supplémentaire qui viendrait s’ajouter, s’additionner aux réalités précédentes et plus coutumières (comme dans le discours sur la réalité augmentée), elle modifie les cadres de l’expérience, c’est-à-dire les modalités au travers desquelles nous nous rapportons au monde et aux autres.

Y être sans y être vraiment : l’expérience morcelée
L’avertissement d’un risque de « désensibilisation », ou de « déshumanisation » est ainsi signalé par un glissement sémantique. La Liaison 16 — dit ce jeune pilote — ça restait de la science-fiction. Maintenant, je sais ce que ça veut dire et c’est phénoménal. Pouvoir tirer sur un mec sans contact. Son info à lui va être suffisante pour lui tirer dessus. Votre équipier vous lance une info et vous tirez sur cette info. C’est ça la Liaison 16 (pilote de Rafale). « Tirer sur une info », n’a évidemment pas la même signification que « tirer sur quelqu’un », un autre soi-même, fut-il un combattant ennemi. La figure de l’ennemi finit d’ailleurs elle-même par devenir floue, presque irréelle, jusqu’à se transformer en avatar. Bien entendu, « tirer sur l’info » peut être interprété comme la forme actualisée d’une représentation du réel commune aux pilotes d’hier et d’aujourd’hui, un pilote de chasse ne faisant jamais que viser un point, une coordonnée, une cible à travers un collimateur.

Mais, outre le mode d’affichage de la cible, le changement ici repose sur la possibilité de tirer depuis la vision d’un « autre », ou pour être précis, sur l’information transmise par des capteurs déportés (radar des autres avions, Awacs, satellite, système optique d’un drone), c’est-à-dire depuis une réalité presque entièrement automatisée (où les décisions humaines apparaissent de moins en moins). Ce qui se dévoile ici en filigrane, c’est aussi un tout autre rapport d’exposition à la mort. Le point capital n’est pas que les gestionnaires de systèmes, rivés à leurs écrans de contrôle, aient perdu les valeurs de courage et de sacrifice (par la mise en danger de sa propre vie et le principe de réciprocité dans la mort) chères à l’éthique militaire. Il serait aisé de montrer que ces valeurs continuent de susciter l’adhésion, et dans une large mesure, de structurer encore l’identité du combattant. Le point important est qu’un type d’expérience du réel se met en place qui altère non seulement l’idée de communauté de destin, mais peut-être, de manière plus essentielle, l’idée de commune humanité, y compris sous la figure de l’ennemi. Ce ne sont donc plus seulement les « autres » qui meurent, c’est la notion même d’altérité. L’information n’est pas un autre soi-même, ni même un ennemi.

Nous revenons à notre point de départ, le principe à la base des technologies numériques d’une dissociation entre l’expérience sensible et les supports de la connaissance, c’est-à-dire les modalités à partir desquelles nous entrons en relation avec le monde, sommes présents à lui. Dans l’expérience qui vient d’être évoquée (celle de la Liaison 16) ce n’est pas seulement la communication ou l’action à distance, qui bouleverse les cadres de l’expérience, c’est le fait nouveau que les technologies immersives parviennent à simuler la coprésence en annulant la distance. Le pilote éprouve le sentiment d’être au centre du monde, du théâtre d’opérations, alors qu’il en est plus radicalement coupé qu’auparavant. C’est donc moins la distance physique, la mise à distance d’autrui, qui caractériserait l’époque actuelle, que l’absence de distance, de formes et de médiations symboliques capables d’aménager un terrain favorable aux relations. Le changement de nature de l’expérience sensible dans les environnements numériques nous avertit alors du risque d’un rétrécissement de la capacité à imaginer, au-delà de l’image, un autre soi-même, une extériorité et plus simplement une autre situation que celle qui est donnée à voir sur les écrans. Et c’est à la disjonction aussi bien qu’au télescopage des niveaux d’expériences, des espaces et des temps, comme des êtres entre eux, que nous enjoignent de réfléchir l’unité et l’immédiation factices des univers numériques (Dubey & Moricot, 2008).

Ce phénomène est encore amplifié dans le cas des opérateurs de drones qui exécutent des actions de guerre depuis un monde en paix, déposent leurs enfants à l’école le matin et viennent les rechercher le soir en ayant entre-temps commis des actes de guerre. La relation entre l’expérience de la présence et le lieu de l’action est ici complètement abolie. L’expérience que les opérateurs ont de la situation est à la fois augmentée (par les capteurs infra-rouge par exemple) et diminuée au sens où elle est réduite à quelques canaux d’informations filtrées. De nouveaux problèmes émergent, exacerbés par la nature même de l’activité, et sans doute spécifiques aux situations de guerre. Ainsi, un opérateur de drone n’est plus, à proprement parler, un combattant puisqu’il ne met en jeu que la vie des autres. La valeur associée au courage est congédiée, le fait de tuer devient moralement et socialement injustifiable et s’apparente de plus en plus à un meurtre (Gros 2006, Chamayou 2003).

Mais ces phénomènes nous informent aussi sur ce qui est implicitement en train de se jouer derrière les environnements numériques, sur la manière dont ils affectent nos modes de présence au monde. Le malaise suscité par la situation des opérateurs de drones ne fait pas que révéler les limites de cette manière de faire la guerre (sans la faire, avec la mauvaise conscience qui va avec), mais d’une attitude plus générale face à la vie. Il y a un impensé des technologies numériques, qui constitue un de leurs soubassements idéels, et que la pratique vient mettre à l’épreuve : à savoir qu’une vie qui aurait ni à s’exposer, ni à échanger, ni à s’altérer (au sens propre, d’être en relation avec ce qui est autre) pourrait, sur la base de ce refus, indéfiniment se conserver. Bien entendu, l’inconfort éprouvé par les opérateurs de drones (qui n’a rien à voir avec le syndrome post-traumatique des combattants auquel on l’a parfois comparé) témoigne du contraire et, au moins par défaut, du fait que la vie n’a de sens que transportée hors d’elle-même, comme relation, confiance et pari sur autrui.

Gérard Dubey
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

 

Gérard Dubey est professeur à Télécom École de Management et chercheur au Cetcopra (Centre d’Études des Techniques, des Connaissances et des Pratiques), Université Paris 1 / Panthéon-Sorbonne.

(1) Baudrillard, J. 1968. Le système des objets. p. 74-75.

(2) Reprenant l’exemple des usages de la CAO (Conception Assistée par Ordinateur) en architecture, Richard Sennet précise, dans un ouvrage récent consacré aux savoirs de la main : Des applications sophistiquées de la CAO modélisent les effets sur la construction du jeu changeant de la lumière, du vent ou des variations de températures saisonnières. (Mais) si fastidieux que ce soit, dessiner des briques à la main oblige le dessinateur à réfléchir à leur matérialité, à s’interroger sur leur solidité (…) Ce qu’on voit à l’écran est d’une cohérence impossible, l’image est structurée et unifiée comme on ne le verra jamais dans la réalité. (…) La simulation est (…) un piètre substitut de l’expérience tactile. (…)Le difficile et l’incomplet devraient être des évènements positifs de notre intelligence ; ils devraient nous stimuler comme ne sauraient le faire la simulation et la manipulation d’objets complets. Le problème (de l’informatisation) ne se réduit pas à l’opposition main/machine (…) le problème (…) est que les gens peuvent laisser faire cet apprentissage, la personne n’étant plus qu’un témoin passif doublé d’un consommateur de cette compétence croissante au lieu d’y participer. » (Sennett, R. Ce que sait la main, Paris, Albin Michel, 2010, pp.58-59-61-62-63)

(3) Il y a des choses représentées qui sont fausses. Tout cela a été filtré. D’autres infos manquent. En fait, il y a des domaines où l’information présenté est partiellement fausse ou totalement. Le système présente par exemple toutes les pannes. Il interprète une fausse alarme pour une vraie. Nous on parvient à dire que ce n’est pas cohérent alors que la machine n’en est pas capable… (Pilote de Rafale).

c’est le monde qu’on numérise !

Les développements de l’outil numérique, que d’aucuns n’hésitent pas à considérer comme une véritable « révolution », redonnent vie à des mythes plus anciens et à des perplexités oubliées.

Leibniz fut parmi les premiers à avoir placé ses espoirs dans l’idée d’une « encyclopédie » et d’un ars inveniendi qui s’enrichiraient non seulement de toute l’étendue du savoir rendu disponible, mais des vertus présumées d’une « caractéristique universelle ». La mathesis universalis de Descartes n’était certes pas loin, mais Leibniz, à la différence de l’auteur du Discours de la méthode, avait compris tout le parti pouvant être tiré d’une écriture qui préfigurait, à certains égards, la Begriffschrift du philosophe allemand Gottlob Frege (1). Sur ce terrain, la littérature a elle aussi contribué à nourrir notre imaginaire de perspectives inouïes, à vrai dire infinies, sur lesquelles paraissent s’ouvrir les projets d’écriture ou de bibliothèque universelles associés à la formalisation et à l’usage d’automates. Jorge Luis Borges en a fait le sujet de plusieurs de ses nouvelles, « La bibliothèque de Babel », notamment, et Italo Calvino, en s’abandonnant à son inspiration oulipienne, a poussé plusieurs fois le paradoxe jusqu’à imaginer une littérature qui rendrait contingente la figure de l’auteur (2).

Ces expériences de pensée illustrent les paradoxes sur lesquels — en littérature, comme en logique ou en philosophie — les perspectives évoquées ont débouché. La bibliothèque de Borges, bien qu’infinie en son principe, ne garantit en rien que tous les livres qui en font potentiellement partie s’avéreront lisibles, ni qu’ils le resteront; quant aux vertus de la machine de Calvino, elles s’ouvrent sur des perplexités qui ne sont pas moins grandes que les paradoxes liés à l’idée d’une « bibliothèque des bibliothèques » ou d’un livre qui contiendrait tous les livres (3). De telles perplexités appartiennent-elles au passé ? D’une certaine manière les logiciens en ont eu raison, mais les rêves qui leur étaient liés ont emprunté d’autres voies que les « nouvelles technologies » leur ont ouvertes leur offrant ainsi une nouvelle chance. La numérisation en constitue le nerf.

La conviction qui confie au médium numérique toute la charge d’une révolution n’y joue pas un moindre rôle; celle qui étend cette révolution à ce que seront la littérature et l’art de demain n’en est que le prolongement (4). Bien entendu, nul ne sait de quoi demain sera fait; on peut tout au plus étendre à un hypothétique futur les lignes du présent, car le temps marche rarement en ordre serré. Le seul point susceptible de justifier un minimum d’assurance, comme pour les questions de simple logique, s’applique à ce qui se peut induire d’un point de vue strictement technique et conceptuel dans les différents champs d’application. Quant au médium, on observera en tout cas que les avantages de la numérisation, bien qu’ils tendent à se concentrer dans une dématérialisation qui en facilite la diffusion, n’en restent pas moins subordonnés à des conditions de production et de conservation qui échappent aux auteurs autant qu’aux éditeurs. L’immatérialité supposée y rencontre ses limites dans les ressources techniques mises sur le marché, bien au-delà des contraintes qui ont toujours pesé sur la fabrication du livre et sur ses conditions d’accès.

Le livre est à la source de possibilités d’accès qui ont joué le rôle que l’on sait dans l’extension de l’écrit au sein des cultures ayant remplacé la transmission orale par la communication écrite. Les conséquences en ont bouleversé les conditions de la connaissance, de l’art, de l’exercice du pouvoir et du droit. Le « médium numérique », bien qu’il soit peut-être en passe de réaliser une mutation comparable, ne modifie cependant pas nécessairement les contenus et les enjeux sur lesquels il débouche. Le postulat sur lequel beaucoup prennent aujourd’hui appui en invoquant les principes que Mac Luhan a initialement défendus : « Le message c’est le médium », laisse trop aisément croire que le seul médium porte en lui les révolutions à venir ! Bien sûr, aucun « message » ne peut être dissocié du « médium » auquel il est subordonné, sauf à céder à un nouveau « mythe de la signification », dans les termes de Quine ou à s’exposer inutilement aux vertiges de l’ineffable, mais ce serait une erreur d’en tirer que pour tout « message », il existe un médium et un seul qui lui soit adapté ou de postuler que les conditions de la signification dépendent intégralement du médium. En réalité, le choix d’un médium, et surtout son usage généralisé, ne se sépare pas de conditions qui affectent la société dans son ensemble ni des processus d’interaction qui la constituent. Pour apprécier la portée d’un médium, il faut le situer dans des contextes d’usages qui communiquent avec ce que Wittgenstein appelait une « forme de vie », ou si l’on préfère une culture.

C’est pourquoi il n’est pas seulement absurde de tenir le médium en tant que tel pour déterminant, mais tout aussi absurde de penser que les techniques induisent par elles-mêmes des effets dont elles seraient les seules causes, abstraction faite des conditions sociales, économiques et politiques dont elles sont étroitement solidaires. C’est un vieux problème que posent déjà les suggestions de Walter Benjamin, dans son célèbre essai sur la « reproductibilité technique », trop souvent interprétées dans ce sens obtus (5). La digitalisation de l’information, y compris dans les usages de plus en plus nombreux qui en sont faits dans l’édition, la production des images ou les pratiques artistiques (vidéo, installations interactives, etc.), n’échappe pas à la règle, la pire naïveté étant de croire que la mobilisation des ressources qu’elle offre suffit à apporter une garantie de nouveauté ou d’originalité. Les seuls enjeux économiques qui leur sont liés suffisent à dire combien ces questions sont subordonnées à des finalités ou à des intérêts qui excèdent de beaucoup les seules ressources techniques et les ambitions dont elles sont investies.

On ne peut certes en ignorer pour autant la réalité ou les promesses. Dans le champ artistique, les perspectives initialement associées à l’Internet ont parfois pris le relais de l’art « relationnel » thématisé par Nicolas Bourriaud en 1995 (6). Elles ont été assimilées à une « dématérialisation » qui, tout en privant les objets de tout autre intérêt que celui de leur place dans le réseau des échanges d’information, s’ouvrait sur un art soucieux de s’affranchir des contraintes du marché, quitte à entrer dans une « invisibilité », c’est-à-dire à une clandestinité de résistance. C’était toutefois ignorer ce que Paul Devautour a clairement diagnostiqué en montrant ce que cette « échappée hors du marché de l’art » comportait d’illusoire dès l’instant où l’information devenait un enjeu commun à l’économie et à la pratique artistique. Dans les deux cas, en réalité, l’idéologie dominante de la « relation » ou de la « connexion » ne laisse potentiellement plus aucune place à quelque interstice ou à quelque blanc que ce soit (7).

Les discussions qui ont actuellement lieu en matière de propriété intellectuelle et de droit d’auteur buttent sur des difficultés liées à cette situation, en ce que s’y opposent une ontologie ancrée dans un régime individualisé des œuvres et des artistes et les perspectives d’une économie qui en accomplirait le démantèlement en rentabilisant les seuls flux et réseaux d’information. Les apories sur lesquelles cette situation débouche conjuguent aux ressources de la digitalisation et de l’Internet les perspectives d’un marché débarrassé des inutiles entraves que lui oppose encore la fétichisation de l’art et de la marchandise. Dans l’état de confusion qui en résulte, les points de vue s’enchevêtrent et les contradictions vont bon train, comme toutes les fois où les résistances issues d’un passé encore présent s’opposent à un futur pressenti ou attendu, laissant entrevoir d’autres règles, d’autres chances et d’autres périls. Il n’est pas étonnant que les mutations dont beaucoup postulent l’imminence débouchent tantôt sur une adhésion militante, tantôt sur une hostilité de principe ou sur le sentiment d’un déclin auquel nul ne peut échapper. La question du livre, qui n’en est qu’une variante, en offre une illustration.

Comme l’a justement fait observer Roberto Calasso dans un essai récent (8), le mot « livre » désigne un objet individualisé dont le contenu est protégé par une couverture — qui en marque l’intégrité physique — et par des droits spécifiques qui en garantissent l’authenticité et la propriété. Le livre, comme beaucoup d’autres choses, présente cette particularité d’exister sur un mode multiple (selon un régime allographique) sans être privé de son individualité (le « faux » y prend la forme du plagiat). En un sens c’est ce qui différencie un livre d’un texte. Les textes circulent plus facilement que les livres; ils s’accommodent aussi plus aisément de l’anonymat; l’auteur y paraît moins essentiel, peut-être parce qu’il vise prioritairement la transmission d’une information. En ce sens, les thèses de Mac Luhan s’appliquent plus aisément à un « texte » qu’à un « livre ». Or cette distinction pourrait bien être en train de s’effacer sous l’effet conjugué des ressources de l’Internet et des comportements qu’il induit ou facilite.

La numérisation des livres rendus accessibles sur l’Internet se fait en réalité au bénéfice des « textes »; du livre, elle annule peu à peu l’intégrité et l’individualité, l’obstacle de la couverture ayant été techniquement supprimé et celui du droit étant en passe de l’être ou d’être sérieusement modifié (9). Ce n’est pas un hasard si les comportements qu’on observe chez les élèves ou les étudiants, voire chez les chercheurs, conduisent à remplacer la référence à des « livres » par une référence à des « textes ». L’Internet remplace pour beaucoup la bibliothèque, et les livres numérisés rendus disponibles viennent se fondre dans une masse potentiellement infinie de « documents » dont le statut n’est pas seulement techniquement égal, mais fonctionnellement et ontologiquement équivalent ou compatible. Notre langage, sur ce point, est révélateur. Les textes numérisés se mêlent, sur le même support et dans le même idiome, aux images, à la musique ou au son, pour offrir au consommateur les ressources d’une médiathèque, plus que d’une bibliothèque, rassemblant en elle la pluralité des modes de description et de symbolisation du monde.

Ces possibilités nouvelles ne sont évidemment pas sans fonder des espoirs dont on trouve une expression caractéristique dans une chronique de Kevin Kelly, parue dans le New York Times Magazine sous le titre éloquent : « Par quoi le livre sera-t-il remplacé ? » (10). L’utopie dont les déclarations de Kelly participent est précisément celle de la connexion généralisée : « accélérer la migration de la totalité de notre savoir dans la forme universelle des bits digitaux ». La digitalisation doit permettre à l’humanité de réaliser l’un de ses plus anciens rêves : concentrer toute la connaissance, la plus neuve comme la plus ancienne, en un lieu unique qui, bien entendu, ne peut être qu’un non-lieu. Ce rêve est aussi celui de Google, depuis 2004. Dans son article, Kelly n’hésitait pas à donner des chiffres : il existe à l’heure actuelle à peu près trente-deux millions de livres numérisés. La digitalisation généralisée s’accomplit à travers le scannage de milliers de livres et de textes, autant que de documents de toutes sortes, nourrissant ainsi en un flux permanent un unique livre, « livre universel » ou « livre-monde », comme on voudra, dont le statut devrait être celui du livre ultime, annulant tous les autres et échappant ainsi au paradoxe du livre des livres ou de la bibliothèque des bibliothèques. Ce livre est à lui seul un monde : le monde numérisé ! Ce monde sans trous, d’aucuns diront probablement « sans âme », est-il dès lors encore un monde ? La question ne trouve évidemment pas sa réponse dans une théorie qui en dévoilerait la nature ou le fondement ultime; elle réside bien davantage dans les processus qui s’y trouvent en jeu et dans les conséquences qu’il est permis d’en attendre ou d’en redouter. Nous sommes embarqués, disait Pascal dans un texte célèbre, ce qui n’était qu’une autre façon de dire à quelle responsabilité nous sommes confrontés.

Jean-Pierre Cometti
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

Jean-Pierre Cometti a enseigné la philosophie à l’Université de Provence. Il est l’auteur de plusieurs ouvrages, parmi lesquels Art et facteurs d’art : ontologies friables (Presses Universitaires de Rennes, 2012).

(1) Leibniz, De arte combinatoria (1666); Descartes, Règles pour la direction de l’esprit (1626); Frege, Begriffsschrift (1879, trad., L’idéographie). Les paradoxes du type de la bibliothèque sont ceux qui frappent les classes (ou les ensembles) et la relation d’appartenance (Bertrand Russell, The Principles of Mathematics, 1903).

(2) Jorge Luis Borges, in Fictions (1941, trad., Gallimard). Le rêve, chez Borges, débouche sur un cauchemar ; Italo Calvino, « Cybernétique et fantasmes » (1967), dans La machine littérature. L’auteur n’est-il pas une machine et une machine ne pourrait-elle pas être auteur ?

(3) Les apories auxquelles le texte de Calvino est lié reposent sur l’idée d’un automate littéraire. Elles concernent l’identité de l’œuvre et ce qui revient à l’auteur, à ses intentions, ses qualités spécifiques, etc.

(4) Certains n’hésitent pas à y voir « un nouveau territoire pour la créativité », ouvert à des expériences nouvelles et notamment à une interactivité désormais passée au rang de nouveau.

(5) Walter Benjamin, « L’œuvre d’art à l’ère de sa reproductibilité technique », dans Œuvres 3, Gallimard, Folio.

(6) Nicolas Bourriaud, L’esthétique relationnelle, Les Presses du Réel, 1998.

(7) Voir Paul Devautour, texte d’une vidéo-conférence de novembre 1996 à Saint-Denis : « invisibilité de l’art en réseau » (www.ciren.org/ciren/conferences)

(8) L’iimpronta dell’editore, Piccola Biblioteca Adelphi, 2013.

(9) La couverture rend le livre réfractaire aux opérations de numérisation, bien que ce ne soit plus le cas. Elle préside significativement au rangement et à la disposition des livres dans une bibliothèque.

(10) Cité par R. Calasso, p. 38. Kelly a fondé le magazine Wired, il est aussi l’auteur du livre What Technology Wants (2010).

l’hypothèse intentionnelle

Internet a été immédiatement investi par les paradigmes de l’espace. Mais dès lors que nous examinons son processus, est-ce qu’il ne s’agirait pas de percevoir, en quel sens, la digitalisation des activités humaines n’inaugurerait pas une forme de cartographie de la conscience en général, permettant alors la réduction de l’homme à seulement des processus déterminés ?

Borgès, dans La rigueur de la science, cite un auteur imaginaire du XVIIème siècle, Suarez Miranda, qui parle d’un Empire, où l’art de la carte a été à un tel point développé, qu’au lieu de correspondre à une réduction, la carte de l’Empire fut faite à l’échelle 1. Son texte entre en résonance avec celui de Lewis Caroll, dans Sylvie et Bruno, roman de 1893, dans lequel deux interlocuteurs discutant de l’art de la cartographie en arrivent à poser « l’idée la plus grandiose de toute » à savoir la réalisation d’une « carte du pays à l’échelle d’un mile pour un mile ».

Dans chacun de leur texte, les auteurs montrent que ce n’est pas immédiatement que l’on en vient à penser une carte à l’échelle 1, mais que c’est progressivement, comme s’il s’agissait téléologiquement du seul horizon de cette intention de report du réel dans l’espace cadastré et normé de la carte. L’échelle 1 serait l’assomption de la cartographie : dupliqué absolument le réel dans l’espace symbolique de la carte, saisir le réel exactement et sans reste. L’épuiser et le dominer. Ces deux textes proposant un tel défi, montrent cependant l’impossibilité de cette téléologie, en effet, la carte matérielle pour être à l’échelle 1 devrait recouvrir l’espace réel, ceci amenant à cette conclusion dans le récit de Lewis Caroll, que la « carte ne fut jamais déroulée ».

Toutefois, avec l’informatique puis Internet, et la virtualité de ses dimensions, ce qui paraissait absurde à la fin du XIXème siècle ou au milieu du XXème siècle semble bien pouvoir devenir une réalité. En effet, du fait que les dimensions ouvertes par l’informatique sont virtuelles, il est tout à fait possible de penser que nous établissions une carte à l’échelle 1 du monde, une carte redécalquant sans réduction toute aspérité, tout site du monde. Cependant, avant d’acquiescer à une telle hypothèse, il est nécessaire de bien comprendre ce qui se joue avec Internet et les réseaux, à savoir quel serait le but d’une cartographie.

Le vocabulaire d’Internet est celui du tissage, du site comme espace qui est déplié. Le langage servant à désigner cette réalité et ses pratiques est issu de l’analogie au monde réel et à certains types de déplacement : la toile, le site, la navigation, l’espace, l’ancre, l’adresse… Toutefois, ce recours ne peut qu’apparaître maladroit d’un point de vue analytique.

Ce qui domine au niveau du vocabulaire est l’analogie à l’espace. Mais de quel espace parle-t-on ? Matériellement le seul espace réel lié aux réseaux est celui des machines (localisation par IP) et des centres de data permettant le stockage. Quant à la réalité des contenus, nous ne faisons face qu’à leur virtualité. Ici la différence avec le monde réel est nette. Lorsque nous sommes sur une plage, loin d’être face à une fenêtre, nous sommes immergés dans un monde.

Certes, si je suis sur une plage de la Côte sauvage, en Charente, les paysages du Japon ou du Kenya sont virtuellement présents au niveau intentionnel, et ne sont pas réels, mais le vécu de sens est celui d’un être au monde, qui par contiguïté, devine la continuité géographique du point où il est, aux multiples points de par le monde. Lorsque nous faisons l’expérience d’Internet : nous faisons face à une fenêtre/écran où l’interprétation des codes déplie spatialement sur l’écran une réalité symbolique.

Nous ne sommes pas un être-au-monde, mais un être-face-à. Il n’y a pas d’immersion. Cette non-immersion tient précisément du fait que la virtualité des contenus des réseaux n’est pas de l’ordre de l’espace continu, mais de points absolument détachés les uns des autres. Nous ne surfons pas entre les sites, comme le laisse croire l’analogie de la navigation, mais nous sautons d’un point à un autre. Il n’y a pas de passages, il n’y a pas de distance, mais il y a sautillement par à coup. Nous pourrions retrouver ici, mais au niveau de l’espace, la distinction bergsonienne du temps : l’espace physique du point de vue du vécu de sens est continu et hétérogène, alors que la réalité des réseaux est un espace discontinu et homogène (l’écart type étant celui de la vitesse des réseaux).

Ceci vient du fait qu’Internet, loin de correspondre à la notion d’espace, en est justement détaché. Si la question d’une cartographie peut se poser, ce n’est pas dans le sens d’une géographie, ou géodynamie, mais bien plus dans l’horizon originel de la topique freudienne. À savoir au sens de la représentation condensée de mécanismes et processus intentionnels humains (1).

Ainsi, il serait tout à fait possible de percevoir autrement la question de la cartographie : non plus celle de saisie des lieux, mais de saisie des pensées humaines, à savoir de ce que pourraient être ses intentionnalités. En effet, Internet, en tant qu’espace sans épaisseur, est d’abord le dépliement virtuel de gestes de la pensée, d’horizons intentionnels de l’homme.

Dès lors, si cette hypothèse est avérée, quels sont les enjeux possibles d’une saisie des structures, liaisons et pratiques liées à Internet ? En quel sens, mettre en évidence que ce qui est possiblement cartographiable est de l’ordre de l’intentionnalité humaine et de sa variation factuelle, empirique, ouvre un champ de maîtrise du sujet, voire de se réduction phénoménale à des logiques absolument déterministes ?

Condensateur intentionnel
Les sites web et leur référencement ne sont pas d’abord et avant tout des espaces, mais bien des constructions intentionnelles. Ici il faudrait référencer et catégoriser chaque site et percevoir en quel sens il correspond à une forme intentionnelle : se renseigner sur l’actualité, faire la cuisine, suivre le sport, se divertir, se cultiver, apprendre, désirer, rencontrer, se masturber, collectionner, travailler, écrire, publier, etc. Anne Cauquelin, même si elle n’en faisait pas l’objet de sa recherche précisément, en avait une parfaite intuition : les nœuds qui constituent la réalité de la carte des réseaux ne sont pas seulement les rencontres de plusieurs tracés de communications électroniques, ce sont (…) des mouvements de pensée et des conceptions qui s’y réfléchissent (2).

Certes, les sites référencent et ordonnent des informations, toutefois, il s’agit de dépasser ce simple constat pour bien comprendre qu’ils sont d’abord des sédimentations intentionnelles de notre humanité. Il est nécessaire de distinguer le geste intentionnel et d’autre part le résultat de cette intentionnalité : son contenu. Ainsi, si en effet Jacob Appelbaum a raison de dire dans un entretien au Monde (du 13 décembre 2013) que : Tout va empirer. En collectant sans cesse des masses de données vous concernant, le système de surveillance fabrique votre doppelgänger numérique, un double qui devient plus vrai que vous, et de là de souligner les erreurs de profile, reste que la finalité, n’est pas tant celle de la maîtrise des activités individuelles que le prototypage du comportement général et, de là, la maîtrise des actions individuelles.

Les sites mettent en évidence des intentions de l’homme, et ses intentions elles-mêmes sont classées et pourraient être cartographiées, aussi bien géographiquement (par l’analyse des IP des sites) que socialement, économiquement, ethniquement. Mais, comme cela a été maintes fois énoncé, ce sont les centres d’intérêt qui amènent les associations d’internautes. Si dans son ensemble Internet est un agrégat, dès lors que nous considérons les centres d’intérêt, nous avons à faire à des associations d’individus qui partagent un trait intentionnel commun, qui constituent des sphères ou des cercles. En ce sens les graphes sociaux, qui ont pris leur ampleur avec les plateformes sociales comme Facebook entre autres, montrent parfaitement comment il est possible de créer ce type de correspondance.

Ce qui signifie que ce qui se déplie lorsque nous examinons la diversité des sites, blogs, réseaux sociaux sont des types intentionnels de la conscience humaine. La mention que je faisais en introduction à Freud et son effort répété de construction topique s’éclaire davantage. Ne plus s’attacher d’abord aux contenus, mais saisir la diversité de la pensée humaine qui se donne virtuellement en accès libre au niveau de la synthèse technologique d’Internet.

Internet est une forme de schémas confus à première vue de l’ensemble des horizons d’opérations et de polarisations de la conscience. C’est en quelque sorte une carte mentale du fonctionnement de la conscience, de sa manière d’associer des intentions, de se focaliser, de se déplier. Par exemple : si je cherche le mot astrophysique sur Google (525 000 résultats) il est évident qu’au niveau de la polarisation intentionnelle de la conscience je parviens à un résultat absolument inférieur à ce que pourrait être la recherche du mot sexe (43 100 000 résultats). Ce qui se révèle c’est que l’intentionnalité générale de la pensée se focalise plus sur la question sexuelle que sur les questions d’astrophysique.

Ce à quoi me donne accès selon la logique cartographique Internet, ce n’est pas à l’espace, mais à un schéma des focalisations intentionnelles de l’homme. Internet est d’abord et avant tout phénoménologiquement un condensateur des intentionnalités de l’homme et de ses procédures d’association. C’est pourquoi autant de recherches se font sur les pratiques humaines, sur la question des modalités relationnelles.

Mais ici, il s’agit pour nous justement de prendre recul face à toute focalisation et de bien comprendre que c’est une topique générale de la conscience que nous tentons de comprendre et d’esquisser. Ainsi, s’il n’y a pas de passages comme je le disais entre les sites, mais des sauts, il y a pourtant des formes de passages qui peuvent être perçus, ceux-ci mettant en lumière les possibles associations, liaisons, correspondances entre intentionnalités (3).

En effet, ce qui se lie, est de l’ordre de l’association de pensée. Si je recherche voiture tuning, au niveau des images qui ressortiront sur le moteur de recherche Google, je verrai associées certaines images de voiture à des corps féminins très dévêtus, avec des poses aguicheuses. Au contraire, si nous tapons structure atomique, aucune association à l’érotisme féminin n’apparaîtra, seules des photographies de chercheur viendront entrecouper, les représentations d’atomes et de structures atomiques. Le référencement méthodique donne accès aux schémas d’association intentionnels, à savoir ouvre d’un point de vue architectonique, en quel sens la pensée humaine crée du lien quant à ses polarisations.

cookies world
L’heure est au fantasme de la mémoire universelle et absolue. On nous parle des data-centers, du data-clouding, de la possibilité de tout retrouver à chaque instant de notre vie numérique. Comme si, l’essentiel se jouait là, une omni-science à soi et aux autres quant à l’archivage. La question de la digitalisation, n’est pas d’ordre statique, mais derrière l’apparence, elle est de l’ordre dynamique. Pour le sujet : la digitalisation du vécu comme automatisme serait là comme garantie de sa propre existence. J’existe, car je m’enregistre.

Or, ce qui est derrière la digitalisation des vécus, ce ne sont pas les contenus, mais les trajectoires, les arborescences de trajectoires de chaque sujet, et ses choix. Le véritable archivage n’est pas le contenu que tel ou tel dépose, mais le fait qu’il ait déposé ceci ou cela (logique des tags) sur tel site. L’archivage est celui de la relation, de la connexion et non pas de la donnée. C’est pourquoi ce qui importe pour toutes les entreprises du web est d’abord la logique des cookies.

Les cookies permettent de définir les relations qu’entretient au niveau des réseaux un usager. Ils permettent ainsi d’établir une forme de portraits de l’intentionnalité de l’internaute : que cela soit au niveau de ses achats, de la fréquentation des sites, des relations à d’autres usagers. Les cookies ainsi permettent de tracer des dynamiques intentionnelles, et delà de proposer des cartographies dynamiques des centres d’intérêt. Dès lors la digitalisation, en effet tente de dupliquer un réel, mais non pas celui du monde, mais celui de la conscience.

Nous passons depuis quelques années du web 2.0, qui a été l’inter-communicabilité intra-réseau, au web 3.0 qui se constitue par l’inter-opérativité de technologies qui ne sont plus liées immédiatement au réseau de prime abord, à savoir qui s’échappent de la logique de l’écran. Cette inter-connectivité est la nouvelle phase de processus typologique des pratiques humaines et de leur quantification.

Ainsi, si on observe les objets connectés, il s’agit de bien saisir et quantifier les pratiques intentionnelles. Si on considère la prochaine mise sur marché, de la société de Rafi Halajan, qui avait créé le Nabaztag, il s’agit de commercialiser un objet connecté qui s’appelle Mother. Mother va interconnecter des cookies physiques qui peuvent être posés sur divers objets afin d’examiner des pratiques. Ces cookies vont aussi bien s’adapter au frigidaire, qu’à la porte d’entrée, à un cartable, une brosse à dents comme le montre le teaser servant à lever les fonds d’investissement.

Bien plus développés que ce que peut être le Nike+ FuelBand, Mother et ses applications pourront schématiser l’ensemble des intentions d’une famille, et dès lors générer des schémas comportementaux. Ici, ce qui apparaît n’est pas tant la question de la réalité augmentée dans laquelle nous sommes, ni même celle de l’autonomie de la machine, qui reste en dernier ressort de l’ordre du fantasme si on projette une forme intentionnelle, mais bien la logique de cartographie de notre conscience de son mode de fonctionnements. De même la nouvelle fonction iBeacon lancée par Apple sur les iPhone va dans le même sens. Interagir avec le client dans une boutique à partir de ses centres d’intérêt.

Cet Internet des objets ou des procédures est ce qui est au cœur de la surveillance de la NSA, dévoilée par Snowden. Ce qui doit être pensé dans cette affaire, notamment, la récente mise en lumière de la surveillance des téléphones portables, tient non pas seulement le niveau communicationnel, mais aussi au niveau des déplacements de leur propriétaire. Cette logique du traçage des pratiques est au cœur de même de tout usage de cartes ou capteurs liés à la société de consommation. On perçoit que la possibilité offerte tend à l’inversion de la cause et de l’effet. Il ne s’agit pas tant de prendre en compte que de pouvoir anticiper selon des modalités statistiques les possibles processus humains et delà de pouvoir les provoquer.

Google montre la voie avec ses graphes épidémiques de la grippe par exemple. Ceux-ci permettent de percevoir et d’anticiper le développement de la maladie à partir d’analyse des requêtes avancées de son moteur de recherche. Certains termes de recherche semblent être de bons indicateurs de la propagation de la grippe. Afin de vous fournir une estimation de la propagation du virus, ce site rassemble donc des données relatives aux recherches lancées sur Google, est-il écrit en bandeau de ce graphe. Internet et la digitalisation sont donc une logique de globalisation des processus individuels selon la volonté de constituer la réalité non pas communautaire, mais synthétique de l’homme, en tant qu’organisme global constitué de particules.

L’épuisement de la singularité
L’ensemble de ces tentatives montre que ce qui est recherché, c’est la réduction de la part singulière de l’homme, sa part imprévisible, son individualité, au profit de la conception techno-synthétique de l’humanité. La digitalisation et la cartographie sont celles de la pensée, non plus individuelle, mais collective et dès lors par le renversement cause/effet, c’est la possibilité de mettre à disposition de puissances symboliques ou économiques, le devenir temporel de l’homme.

Si ce type de paradigme ressort parfaitement de film comme Minority report de Spielberg, reste que bien avant, avec les pères de la cybernétique, cela a pu être annoncé. En effet, si on en revient à David Aurel et son livre La cybernétique et l’humain (4), était déjà mis en perspective le projet de la cybernétique : réduire l’homme et ses intentionnalités à un ensemble d’équations déterministes, repoussant la question de la liberté à ne plus être rien. David Aurel, dans un de ses schémas, reprenant la question de la liberté telle qu’elle a été proposée par Descartes, explique que l’analyse des mécanismes intentionnels de l’homme, permet de voir en quel sens son comportement peut être réduit à des calculs d’intérêt, ou encore des procédures de réactions spécifiquement déterminables, ceci impliquant de réduire la liberté à un presque rien (5).

La volonté de digitaliser, cartographier, ordonner, référencer indéfiniment n’est pas du tout dans la logique de la connaissance, mais du contrôle. Le savoir est subordonné au pouvoir : la question de l’action dépasse la question de la théorie selon une dialectique du contrôle. On ne peut que rappeler ici ce que Heidegger, dans sa critique de l’ère technique, en tant que cybernétique mettait déjà en évidence : l’homme est vidé de son humanité, au sens où la technique le réduit lui-même à n’être seulement qu’un étant parmi les étants (6).

La logique de cartographie liée au réseau repose ainsi sur la certitude, elle-même refoulée, que l’homme se réduit à un étant que l’on peut absolument, et sans reste, réduire à un déterminisme fonctionnel, donc chaque partie par sa variation traduit des formes d’intentionnalité de la globalité organique. Dès lors, pour conclure, si l’optique de Dominique Cardon (7) est assez juste, à savoir l’abolition des espaces en clair-obscur afin de les porter à la lumière des moteurs de recherche, on ne peut que se séparer de sa conclusion. La cartographie intentionnelle qui peu à peu se répand et s’accélère avec le web 3.0, est de l’ordre de la saisie de l’intentionnalité humaine en tant qu’entité globale en vue de sa domination par des logiques économiques et donc idéologiques.

Nous retrouvons ici sans doute historiquement ce qu’a été l’avènement de la carte. La cartographie et la géographie, loin de ne reposer que sur l’épreuve de la connaissance, seulement objective, répondaient phénoménologiquement à la question de l’utilité. Phénoménologiquement : le face-à-quoi est toujours subordonné au pour-quoi, au en-vue-de-quoi. À l’instar de ce que dénonçait Adorno à propos de la société capitaliste dans Minima Moralia, ce qui est proposé, comme service au niveau des réseaux, est dialectiquement institué en vue de la mainmise et de la domination de l’homme. Les services proposés par le web, ne sont là que pour accélérer et parfaire selon le principe d’exhaustivité, la cartographie de nos choix, de nos perspectives, de nos existences.

Ainsi, loin de partager la suspension positive de Dominique Cardon, parlant de liberté de l’individu, il est évident que la digitalisation de nos existences, tend de plus en plus à nous fixer, avec l’assentiment de chaque individu concerné, à des formes de déterminismes, anticipables et dès lors calculables selon des logiques de profits.

Philippe Boisnard
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

Après des études de Philosophie à la Sorbonne (Master II) et de Lettres à Jussieu (Master II), Philippe Boisnard se consacre à l’écriture et à l’informatique. Artiste programmeur, il est chargé de cours en Master à Annecy et Directeur artistique de la FASTERI (Formation d’Angoulême de Supervision des Technologies du Relief et de l’Interactivité).

(1) Ce point précis pourrait permettre de bien comprendre le relatif échec de Second Life. Second Life s’est proposé de donner une réalité mimétique — au sens spatial et formel — de la nôtre. En effet, le participant se retrouve incarner un personnage dans un monde, répondant des mêmes processus, mais en virtuel, que ceux de notre existence. Second Life aurait parfaitement pu devenir le réseau social absolu à partir du milieu des années 2000. Or cela n’a pas été le cas, le désintérêt a été très rapide, notamment en France après les élections de 2007, où il fut très présent du fait de sa nouveauté. La raison de ce désintérêt vient du fait que ce qui domine au niveau d’Internet, n’est aucunement de l’ordre de la recherche d’une mimésis de l’espace, mais de l’incarnation de notre intentionnalité. L’internaute recherche davantage la forme esthétique des procédures intentionnelles, que la recopie du monde. Autrement dit, pour quelle raison des réseaux sociaux comme Facebook ont fonctionné et fonctionnent très bien, c’est que la conscience s’y reconnaît, Facebook est un condensateur intentionnel, qui a neutralisé toute forme de mimétique esthétique exogène à la conscience.

(2) Anne Cauquelin, Le site et le paysage, PUF, 2002.

(3) Il faudrait aussi mettre en évidence et analyser toutes les recherches sur le web-sémantique, et donc la question des tags associés à des contenus. Ces associations sont de l’ordre de schématisation de modalités de pensée. Dès lors la volonté de pouvoir maîtriser un web-sémantique appartient pleinement à la logique de saisie des procédures intentionnelles de l’homme.

(4) David Aurel, La cybernétique et l’humain, Gallimard, 1965.

(5) Il faudrait établir la discussion entre Jankélévitch et cette thèse de David Aurel à la lumière de l’évolution d’Internet et des opérations que j’ai décrites. En effet, Jankélévitch tend à poser dans le Je ne sais quoi et le presque rien, que la liberté, prise dans le déterminisme, n’a de sens que dans la transcendantalité du futur. Or, selon cette logique de réduction cybernétique des intentionnalités humaines et la maîtrise statistique de plus en pus forte des relations que la conscience établie, on pourrait penser que peu à peu, l’intentionnalité humaine quant aux possibles, puisse se réduire à un phénomène équalisable d’un point de vue déterministe. Ceci ressort de ce qu’écrit David Aurel : La technique rationnelle a attaqué le droit comme elle a attaqué la Médecine. Cela tient à l’augmentation du nombre des hommes, au fort taux de couplage de leurs relations actuelles (…). Le point le plus connu est celui de la cybernétisation de la gestion administrative. L’Automation, dont la réglementation préoccupe par ailleurs fortement le Droit, le pénètre lui-même dans son organisation technique (p.140).

(6) Heidegger, Le dépassement de la métaphysique : L’usure de toutes les matières, y compris la matière première « homme », au bénéfice de la production technique de la possibilité absolue de tout fabriquer, est secrètement déterminée par le vide total où l’étant, où les étoffes du réel, sont suspendues. Ce vide doit être entièrement rempli. Mais comme le vide de l’être, surtout quand il ne peut être senti comme tel, ne peut jamais être comblé par la plénitude de l’étant, il ne reste pour y échapper qu’à organiser sans cesse l’étant pour rendre possible, d’une façon permanente, la mise en ordre entendue comme la forme sous laquelle l’action sans but est mise en sécurité. Vue sous cet angle, la technique, qui sans le savoir est en rapport avec le vide de l’être, est ainsi l’organisation de la pénurie.

(7) Dominique Cardon, La démocratie Internet, Seuil, 2010.

Si l’on considère l’évolution de la sculpture dans l’art contemporain, on est conduit au constat d’une diversité croissante de propositions artistiques qui semblent s’être affranchies de toute référence à un modèle dominant, comme c’était encore le cas au temps des avant-gardes. On serait même conduit à penser que c’est là un phénomène constant dans l’histoire récente : de la statuaire venant ponctuer les abords des édifices publics ou religieux jusqu’à la sculpture moderne venant questionner dans l’espace public les excès même du modernisme, en passant par toutes les formes plus ou moins pérennes ou plus ou moins éphémères des arts du site et de l’environnement, la relation entre l’art et la ville s’est enrichie, diversifiée, et comme affranchie des limites de plus en plus incertaines qui séparent l’art et le non-art, le matériau et l’immatériau, l’urbain et le rurbain.

Ce mouvement est pour une large part l’effet de ce soupçon généralisé qui gouverne aujourd’hui la relation entre l’art et la réalité, et cette supposée déréalisation du monde à laquelle l’excès des simulacres et des simulations nous a accoutumés (1). On peut y voir, aussi et d’abord, la manifestation directe de l’importance prise par les questions de temporalité et de rythme, de mobilité et de trajet, dans les arts du volume et de l’espace, dans les formes mêmes de la spatialité artistique actuelle. Mais aussi, et avec pas moins de force, l’expression des divers modes de dislocation de nos régimes spatio-temporels d’appartenance à nos territoires et à nos environnements urbanisés : conséquence évidente, c’est un lieu commun de le rappeler, de la mondialisation et de l’essor des réseaux numériques qui viennent se superposer au territoire réel comme une deuxième peau, et même infiltrer ce territoire, de manière à la fois — et paradoxalement — de plus en plus invasive et de moins en moins visible parce que de plus en plus naturalisée (pour Benjamin, il faut le rappeler ici, le stade de la seconde technique est le stade de la technique naturalisée).

Thierry Paquot évoque à ce propos l’hypothèse d’une technologie urbaine mondialisée qui environne l’environnement (2), élevant le territoire réel à la puissance d’un hyper-territoire avec lequel les anciens territoires sont sommés de composer — de se réinitialiser devrait-on presque dire ici — sous peine de disparaître de la scène mondiale. Il ne serait pas vain de s’interroger à ce sujet sur la propension actuelle de l’architecture à renouer ainsi avec la scénographie et le spectaculaire en général, et à se libérer corrélativement d’une certaine doxa fonctionnaliste venue du modernisme : la scénographia des Grecs, qui fut aussi la voie royale qu’emprunta l’architecture des origines jusqu’à la Renaissance pour occuper le premier rôle dans des arts, est à nouveau à l’œuvre avec les « starchitectes », et singulièrement dans le domaine des lieux dédiés aux arts comme les musées (Hugo emploie même, dans son célèbre chapitre de Notre Dame de Paris, « ceci tuera cela », l’expression d’un art tyran pour souligner cette hégémonie de l’architecture sur les autres arts, qui, dans le temple ou la cathédrale, les contient et les retient tous sous sa coupole, avant que ceux-ci ne s’émancipent).

Peut-être convient-il de s’appuyer à ce point sur quelques repères pour étayer l’analyse des questions de l’art contemporain et de la ville, et pour mesurer à quel point ces questions nécessitent d’être réactualisées. On se référera ici à une étude de François Barré, publiée en ouverture de l’ouvrage Œuvre et Lieu (3). Barré distingue plusieurs modes d’inscription de l’œuvre d’art dans l’espace public : la statuomanie, l’indépendance revendiquée de l’œuvre par rapport au contexte, ou au contraire la revendication de l’influence du lieu sur l’œuvre (c’est le cas des colonnes de Buren). Mais aussi, les esthétiques relationnelles, l’importance du récit et de l’histoire immanents aux œuvres, les fonctions de seuil et de passages assignés aux œuvres, etc.

De cet essai de typologie, on peut retenir l’hypothèse, toujours d’actualité, d’un conflit, d’une tension jamais résolue, ou d’une relation en constante mutation, entre l’architecture ou l’urbanisme issu de la modernité (et en particulier celui qui résulte de l’application ad nauseam de la Charte d’Athènes) et l’art. Face à ce purisme urbanistique, réducteur et niveleur, lui-même profondément lié à l’industrialisation du territoire et à sa standardisation appelée, comme tout produit industriel, par cette industrialisation même, les artistes ont cherché à exprimer la nécessité de l’excès, de l’irréductibilité du « message » de l’œuvre d’art à un standard, à un code, une norme ou une mesure, et à faire de la forme souvent dérangeante qui la soutient le lieu d’une question adressée au monde, là où l’architecture se devait au contraire d’apporter surtout des réponses : rappelons que le modèle architectural qui présidera à la rédaction de la charte d’Athènes se donne d’abord comme une réponse, un remède à apporter à ce corps malade qu’est devenu la grande ville.

Ce qui est en cause, c’est la critique d’une modernité à spectre large et surplombant qui entend régner sans partage sur le visible spatial à l’échelle mondiale, et c’est ce regard totalisant dont certaines œuvres veulent montrer l’envers au noir, le paysage de ruines que cette modernité porte en puissance dans son arrogance même. On trouve une expression esthétique parfois très pertinente de cette intention dans certaines œuvres relevant d’un romantisme tardif, et qui se réapproprient à l’âge contemporain le goût romantique des paysages de ruines. C’est un tel dispositif de fragmentation et de chaos romantique, appliqué à l’histoire contemporaine, qu’avait imaginé Hans Haacke avec son installation à la Biennale de Venise, Germania, de 1993, en cassant le carrelage du sol et en faisant déambuler les visiteurs sur les éclats de ce paysage de ruines (4).

L’art urbain serait alors comme l’autre de la culture industrielle de la modernité et des technologies de contrôle qui la soutiennent, de ses médias, de ses signes surmultipliés dans l’espace urbain saturé, et il trouvera en effet son expression dans les esthétiques du soupçon, du fragment, du chaos, de la contrainte ou de la participation; esthétiques dont certains artistes (du Land art ou de la performance) ou certains écrivains (de « l’écriture blanche » ou du Nouveau Roman jusqu’à Tel Quel) proposeront de nombreuses occurrences. Il faut souligner à quel point ces esthétiques sont travaillées par le démembrement du corps propre comme du corps social, esthétiques du défaut, du manque, du retrait, de la dérive, de la désynchronisation diégétique et du silence corrélatifs à l’excès même du visuel; excès du visuel qui se manifeste dans la mise en spectacle de la marchandise, dans le bavardage de la communication et de la consommation de masse. Pourtant, les relations entre l’art et l’architecture ou l’urbanisme modernes peuvent être pensées aujourd’hui dans un autre cadre que celui de ce réductionnisme fonctionnaliste auquel l’art aurait cherché à s’opposer.

C’est en particulier la ligne adoptée dans une étude récente par Patrice Maniglier sur la problématique de l’espace conçu et de l’espace perçu, en particulier telles quelles s’appliquent à une œuvre de deux artistes [Laetitia Delafontaine et Gregory Niel], intitulée Rosemary’s place. […/…] Maniglier souligne avec pertinence que ce renversement, qui fait de l’image, et même de l’image-temps-et-mouvement du cinéma, la matière première d’un espace d’abord perçu avant que d’être conçu, réactualise l’ancienne scénografia des Grecs, aux yeux desquels l’architecture n’avait pas seulement pour vocation de remplir certaines fonctions (les fameux besoins fondamentaux auxquels entend répondre la Charte d’Athènes), mais avait aussi une dimension spéculative, celle de communiquer le sens de ces divines proportions dont la contemplation (et non pas l’occupation) était empreinte d’une dimension mystagogique. Dans cette mesure, l’architecture allait devenir « l’art majeur », avant que les arts divers qu’elle abritait sous sa coupole ne cherchent à s’affranchir de son antique tutelle. En ce sens, l’architecture aura toujours été au moins autant spectacle, émotion, contemplation, « grand livre de l’humanité », ou image de la Cité Céleste qu’abri, fonction et art appliqué.

Il est notable que ce renversement des anciennes hiérarchies, cette affirmation des puissances de l’imaginaire ait lieu dans un temps qui (sur)valorise les réseaux et les espaces virtuels — lesquels ont fini par devenir cet objet de culte qu’avaient anticipé les Saint-Simoniens, et n’en finissent pas de modeler non seulement les lieux urbains (et la modernité n’est, en un sens, rien d’autre que l’aménagement réticulaire du territoire), mais aussi les milieux humains et les comportements au point que c’est l’espace public lui-même qui semble avoir migré sur les réseaux numériques.

Le réseau et le rond-point comme métaphore
Les réseaux avaient déjà en effet profondément bouleversé le territoire, mais il s’agissait des réseaux du premier âge industriel, dont se délectent aujourd’hui les artistes, soit que ces réseaux soient encore opérationnels (et ils le sont dans une mesure encore très importante — un beau travail consisterait d’ailleurs à affecter des marqueurs temporels sur la carte de tous ces réseaux que nous utilisions encore aujourd’hui, pour donner à la carte ainsi redéfinie, cette profondeur de temps qui lui fait défaut, sauf pour la nature et la géologie) soit, cas le plus fréquent, pour en archiver la mémoire à travers des dispositifs et objets monumentaux qui en conservent la trace (car ces témoins d’une industrie lourde sont au mieux promis à la reconversion — et il s’agit souvent d’une reconversion artistique —, au pire à la disparition ou à l’effacement dans les plis de la rurbanité galopante au-delà des frontières de la ville et même de ses banlieues).

Il est utile cependant de rappeler à quel point ces marques d’un paysage aujourd’hui révolu, auront su, et depuis longtemps déjà, accéder, dans certaines pages célèbres de Heidegger ou Simondon sur les ponts, les routes, les manufactures et autres marques paysagères de l’âge industriel, à une sorte de dignité esthétique, qui leur fut d’abord communément refusée. Ainsi, les artistes et les philosophes ont su libérer la pensée de la tutelle d’une antique esthétique du beau naturel, et montrer les beautés inaccoutumées du beau industriel (cela commence avec les impressionnistes, et les bords de la Seine, qui sont indissolublement le lieu d’une évolution des mœurs et d’une mutation des paysages — et qui voient s’élever de grandes cheminées, des ponts métalliques, des manufactures et entrepôts sur les quais du fleuve), construisant progressivement l’image d’un paysage organisé autour de quelques grands marqueurs datant du premier âge industriel et de sa gloire, aujourd’hui commués en lieux de mémoire (tel, par exemple, le Musée de la Mine de Saint-Étienne), ou encore survivant dans la mémoire par le traitement que leur applique certains artistes photographes (on pense évidemment ici aux châteaux d’eau et autres tours réfrigérées répertoriés et archivés par Bernd et Hilla Becher).

En ce sens, il y a un singulier du pluriel industriel, et cette singularité des dispositifs et sites où s’inventèrent à grande échelle les objets en série de la société de consommation (voitures, électroménager, chaussures, textiles), n’échappe pas aux gardiens de la mémoire et de l’épaisseur symbolique des choses. Qu’ils soient artistes, ou conservateurs en charge du patrimoine, l’industrie lourde et ses marques paysagères sont l’objet, qui doit beaucoup à la photographie, d’un savant travail d’inventaire, de conservation/reconversion, qui fait une part égale au divertissement et au culte. Cela nous conduit à penser que l’industrie, paradigme même de la répétition mécanique du même à l’échelle des marchés de masse, a aussi partie liée avec la singularité des lieux, des cultures et des territoires.

Que la reproduction vienne finalement en amont de la production et la poïésis, voilà une très vieille question, qui vient déranger à l’âge industriel les anciennes hiérarchies du majeur et du mineur, de l’art majuscule et des arts appliqués, et nous renvoie, pour la revisiter, à l’ancienne hiérarchie des arts mécaniques et des arts libéraux : les arts industriels, que l’on serait portés a priori à situer du côté des arts mineurs en tant qu’ils procèdent d’une forme d’utilitarisme et de reproductibilité, sont plus difficiles à catégoriser qu’il n’y parait a priori (et c’est tout le travail, sans cesse à reprendre, auquel invite le texte canonique de Benjamin consacré à cette question). Cette haute modernité industrielle, qui irradie partout dans un sens que l’on croyait être d’abord celui d’une neutralisation des lieux et des cultures singulières, est ainsi aujourd’hui l’objet d’une attention, presque d’une sacralisation, ou d’un culte, après avoir servi de repoussoir ambigu pour les artistes (ambigu, car les grands artistes du XXème ont toujours su négocier un rapport intelligent avec l’industrie, une relation faite de fascination et de répulsion, et réinventer l’art au cœur même de ce qui se donne a priori comme sa négation programmée — on pense ici à Duchamp ou Warhol, ou même Arman et César).

Certains artistes l’ont bien compris, et ont su tirer parti des matériaux industriels qui constituent le vocabulaire même de l’espace urbain moderne et industrialisé pour concevoir des œuvres dont la grammaire et le vocabulaire sont tirés de leur répertoire : Patrick Raynaud a ainsi conçu un Giratoire (6) qui trouve son principe dans l’un de ces lieux hautement problématiques dans l’imaginaire collectif des Français, et sans doute des Européens. Il s’agit du rond-point : la sculpture qu’il propose sur un de ces ronds-points est formée des panneaux de signalisation les plus divers qui composent notre code de la route et son système d’interdiction et d’orientation. Le rond-point s’est en effet imposé, à la fois soudainement et massivement, à l’ordre circulatoire et routier des Européens, sans prévenir de son arrivée, et est venu perturber un habitus inscrit dans les profondeurs de l’homo automobilis : la sacro-sainte priorité à droite. […/…]

Le rond-point est aujourd’hui assimilé par le corps social et peu sociable des automobilistes, comme une fatalité et comme une figure obligée de la circulation. Mais un problème subsistait, une fois le rond-point accepté dans son principe et reconnu dans ses vertus sécuritaires : son sens (le mot s’entendant aussi bien en termes de signification que d’orientation), ou si l’on veut ses qualités à la fois esthétiques, symboliques et sémiotiques (les objets d’orientation dans la ville et sur la terre ayant, on le sait depuis toujours, rempli de hautes fonctions symboliques, mais aussi esthétiques; et la signalétique urbaine a acquis, au cinéma ou même dans un certain hyperréalisme artistique, ses titres de gloire depuis bien longtemps déjà). Car la question s’est très vite et à juste titre posée de la profonde vacuité de ces cercles qui se succèdent en enfilade au fur et à mesure qu’on entre ou qu’on sort des modernes mégapoles […/…]. Le rond-point abolit le conflit de l’art et de la ville comme partage « dissensuel » du sensible, et il est patent que ces ronds-points sont devenus dans bien des cas le refuge de la haine de l’art, le réceptacle et l’exhibition d’œuvres monstrueuses qui sont supposées égayer la circulation.

Fluidité et mobilité : l’art à l’heure des nouveaux agencements mobiles et collectifs d’énonciation.
Le rond-point vaut donc comme métaphore de la fluidité voulue par le monde actuel, l’expression achevée de cette mobilité promue à la fois par les systèmes de transports et les systèmes de communication, et en particulier les réseaux et les nouvelles technologies, réseau dont ils seraient comme les nœuds. Cette fluidité et cette mobilité généralisées, tiennent, on l’a déjà souligné, à la dislocation des anciens régimes d’appartenance — foyer, famille, territoires ou quartiers —, à la puissance des « objets nomades » et des portables en particulier, au trafic incessant des images et à leur caractère flottant, au doute qui en résulte quant à leur vérité et à leur caractère de preuve.

Cela tient encore à l’empire contemporain du récit et de la fiction dans la gestion des affaires de la cité (comme le démontre l’emprise du storytelling dans le discours et la gestion de l’espace politique). La question se résumerait alors à cette formule lancée par Deleuze : que peut l’art encore quand c’est le monde qui fait son cinéma ?, et quand l’histoire tourne en rond comme les automobilistes autour d’une rond-point ? Quand, devrait-on ajouter, c’est le cinéma — au sens large d’un dispositif foucaldien fondé sur le temps et le mouvement qui environne l’environnement spatial même ? Mais un dispositif, qui par le biais des technologies numériques de toute nature qui convergent dans les rues de nos villes et à même nos corps, semble avoir étendu son emprise au battement artériel de la ville-monde tout entière.

Chacun peut constater la place grandissante des systèmes de contrôle optique et/ou de traçabilité biométrique (vidéo-surveillance, systèmes de vision panoptique comme Google Earth, ou encore cartographiques dynamiques accessibles via nos portables même, et déjà les puces RFID). Cette couche sans cesse plus dense de connexions télé-numériques a une première conséquence majeure (outre qu’elles se présentent de plus en plus sur un plan de saisie et d’enregistrement haptique et optique) : elle modèle, elle agence nos modes de vie, nos milieux et nos comportements à la fois individuels et collectifs à une échelle inégalée — qui va bien au-delà des échelles de ces micro-communautés virtuelles des « pionniers » du réseau, aujourd’hui largement dépassés par le flot et le flux des réseaux sociaux, et des apéros géants de Facebook. Elle est en passe de devenir l’espace public même (voyez l’importance acquise en quelques mois par les médias alternatifs en ligne, comme Mediapart ou Agoravox, et leur poids dans le débat politique), ou au moins le théâtre de ces « nouveaux agencements collectifs d’énonciation » que Félix Guattari appelait de ses vœux, et qui se réalisent aujourd’hui, mais selon des orientations bien différentes de celles que le philosophe avait en vue.

Elle a une deuxième conséquence : c’est qu’elle induit une mobilité et une portabilité généralisées qui sont désormais les vrais liants du ciment social, après (ou avant la télévision, si l’on résonne statistiquement sur les populations jeunes), et la moindre association disposant d’un site en ligne ne saurait se manifester sur la scène mondiale sans son réseau de liens connexes et de sites liés. Il en résulte, on le sait, d’insurmontables problèmes de régulation commerciale, territoriale, juridique, étant donné le caractère transfrontalier et ubiquitaire de ces technologies (ce problème est d’ailleurs au cœur de la discussion à propos de la numérisation du patrimoine littéraire de l’Europe, et au rôle qu’entend s’attribuer Google dans ce projet), etc.

Il en résulte aussi un constat facile à faire : c’est que si le virtuel n’abolit pas le réel, ou ne conduit pas à sa résolution dans l’éther du simulacre généralisé, la question des relations entre le virtuel et la réalité ne s’en pose pas moins d’une manière d’autant plus pressante que les technologies numériques et les réseaux ont aujourd’hui infiltré les lieux et les milieux humains aux dimensions des territoires et des espaces du collectif à une échelle massive : avec ces milliards d’utilisateurs de téléphones portables dans le monde actuel, la portabilité n’est plus du tout une affaire de connectés ou de spécialistes. Un autre aspect de cette évolution tient à son caractère fluide, liquide, indomptable comme une mer déchainée. Ces technologies ne sont jamais là où on les attendrait, et leurs usages, leur évolution, bien que parfaitement programmées dans les laboratoires, ne se réalisent jamais comme on le croyait : là où l’on attendait ceci, c’est cela qui vient et se déploie à la vitesse virale des rumeurs.

Il devient dès lors très difficile de tracer les lignes d’une évolution prévisible entre les arts contemporains et la ville d’aujourd’hui, tant sont diverses les figures et les formes qu’empruntent les expérimentations artistiques actuelles, elles-mêmes en résonance constante avec la pensée et la réalité de l’innovation technologique en révolution permanente : il est devenu évident que la vidéo-surveillance est désormais l’enjeu d’une esthétique et d’une « pragmatique » urbaines inédites, qui empruntent à la fois à l’esthétique surréaliste et à la dérive situationnistes. Et en effet, une bonne part des tentatives de l’art actuel s’inscrit en continuité avec les œuvres de certains « ouvroirs » d’espaces potentiels : on sait bien que l’esthétique de la modernité même ne serait rien sans le prédicat de la mobilité, du déplacement et du trajet, dans l’art comme dans la littérature — de Breton à Pérec en passant par Butor, Pasolini, Godard, Debord, ou Long —, rien n’aura eu lieu que le déplacement et le trajet comme métaphore et objet de toute quête esthétique ou poétique.

En ce sens, l’actuelle question de la mobilité ne fait que s’inscrire dans la continuité des engouements de l’avant-garde artistique et littéraire du siècle dernier, de même d’ailleurs que la recherche d’un couplage singulier, « hétérochronique » autant qu’hétérotopique, entre perception objective et perception subjective, entre individu et collectif. […/…] Dans un autre registre, certains artistes imaginent des œuvres relevant d’une catégorie inédite, et que je proposerais volontiers de qualifier d’œuvres augmentées (comme on parle de réalité augmentée à propos du virtuel), parce qu’elles réalisent une forme de couplage ou d’hybridation inédits entre l’espace urbain et le réseau. Ainsi, Sophie Calle a proposé en 2007 une œuvre intitulée www.transport-amoureux.vu, qu’elle a installée dans une station du tramway de Toulouse. La recension de cette œuvre dans l’ouvrage L’art à ciel ouvert, consacré à la commande publique, fait mention de celle-ci dans les termes suivants : l’œuvre de Sophie Calle illustre bien ce phénomène de couplage de l’écran d’ordinateur et de l’espace urbain dans cette commande publique. […/…]

Mais ce n’est pas non plus simplement d’un couplage qu’il s’agit — comme si les deux allaient ensemble dans une heureuse harmonie : il s’agit d’un renversement conflictuel de la hiérarchie des espaces, de la hiérarchie des formes du lieu et de l’espace public en général. Comme si désormais c’était l’écran de l’ordinateur et plus généralement le paradigme du réseau qui s’imposaient aux formes, aux apparences que devait prendre l’espace de la vie commune, et qui en modèlerait non seulement les signes, mais aussi l’architecture (ainsi depuis déjà longtemps de ce toit d’une école d’ingénieur de Marne-la-Vallée, qui est clairement l’agrandissement aux échelles d’un bâtiment, d’un écran d’ordinateur, à la manière de cette pince à linge qu’Oldenburg avait conçue, mais aux dimensions d’une sculpture destinée à prendre place dans les rues de New York ).

Le « terminal », dès lors, n’est en rien ce qui se trouve au terme d’un processus qui irait du réseau vers le récepteur ou l’internaute, du dehors collectif vers le dedans individuel. Dans une logique de maillage connexionniste du territoire et des réseaux, et de mise en relation complexe du public et du privé, le terminal est aussi bien la source, le moteur d’affiliation de la sphère publique à la sphère privée et de la sphère privée vers la sphère publique (avec les webcams par exemple) — et c’est un fait d’importance majeure que les appareils télé-numériques se présentent de plus en plus comme des outils de saisie ou d’enregistrement, mais aussi de lecture et de projection (et même de transfert et d’échange entre projections à usage collectif sur des murs d’immeubles et usage individuel sur des téléphones portables). L’œuvre de Sophie Calle exemplifierait en ce sens un concept qu’un chercheur en sciences de la communication, Dominique Boullier, a récemment proposé pour qualifier l’évolution des relations entre le dedans et le dehors, l’individuel et le collectif, le privé et le public. Il s’agit de l’habitèle. Contrairement à la bulle (de Sloterdijk), l’habitèle implique un couplage du sujet avec son environnement par le biais d’interfaces.

Un autre exemple de ce couplage de l’espace urbain et du mobile, l’installation de l’artiste JR sur les quais de Seine : un système de street audioguide permet aux passants de composer sur leur portable un numéro gratuit pour entendre les interviews et le récit de la vie des femmes qui sont présentées sur des photos de grand format. Certaines de ces applications combinent les technologies de géolocalisation et de réalité augmentée dans un système équipé d’une caméra, d’un récepteur GPS et d’un accéléromètre capable de reconnaître le lieu et l’orientation de l’usager lui permettant ainsi de visualiser à l’écran un espace « augmenté », par la superposition visuelle de contenus.

Ce qui se dégage de l’analyse sommaire des propositions récentes ayant pour objet ces agencements rythmiques d’énonciation de l’œuvre d’art et de la ville, c’est de manière récurrente, la tentative d’articuler le corps social, collectif et la perception singulière des individus, de mettre en résonance contradictoire, en conflit et en relation, perception subjective et décryptage/analyse automatisés du réel, grâce aux dispositifs d’enregistrement et de traçabilité, mais aussi de mesure, de cartographie et d’orientation qui constituent désormais le cadre flottant de nos déplacements et de nos comportements. Comment nos attitudes peuvent-elles dès lors prendre forme, au-delà de la dialectique de l’éphémère et du pérenne, du l’objet et du modèle, de l’œuvre et du lieu, telle que la modernité et même les dernières avant-gardes les ont consacrés dans l’art et le paysage urbain ? Quelle forme l’art contemporain peut-il donner à ce flux continu, cet enchevêtrement de réseaux et d’espaces-temps asynchrones avec lequel nous sommes désormais obligés de composer pour habiter le monde ? Et « habiter le monde en poète » (exigence qui est encore celle d’un Guy Debord), cela se peut-il encore aux conditions de la mobilité et de la portabilité exigée par notre temps ?

À rebours de cette solution de continuité entre le monde réel et le monde des images prophétisée par les apôtres du simulacre, certaines œuvres se présentent dès lors comme des dispositifs asynchrones, ménageant des effets de rupture, des sautes de rythmes dans la relation entre l’espace perçu et l’espace réel dans lequel évolue le spectateur. C’est par exemple le cas avec Massmon Fujihata lorsqu’il travaille les données collectées lors de l’ascension du Mont Fuji de façon à en construire une image déformée en fonction de la vitesse de la marche. Les technologies immersives sont donc ici les vecteurs d’un usage situé à l’opposé de celui auquel les destine leur appropriation culturelle convenue, dans l’idéologie couramment entretenue de l’immersion et de l’interaction : elles apparaissent moins comme la promesse d’une continuité entre le réel et le virtuel, dont l’image viendrait en somme réaliser l’avènement avec la popularisation de la 3D, que comme une anacoluthe dans le discours dominant de l’industrie culturelle qui postule la continuité du réel et de la fiction moyennant un usage de plus massif et démocratisé de la 3D et du principe d’immersion, un accroc dans le tissu de la globalisation culturelle.

L’œuvre d’art contemporaine qui se destine à l’espace public apparaît ainsi de plus en plus traversée et modelée par le paradigme du temps et le conflit des régimes de temporalité actuels, à la fois calculables au plus haut point (ainsi le concept de life time value, qui indexe les possibilités d’une vie humaine sur des durées calculées en fonction de différents critères tels que l’éducation, l’hérédité, la santé, etc.) et fondamentalement incontrôlables (certains experts de la Silicon Valley prévoient même avec la théorie dite de la « singularité », la perte définitive du contrôle des machines par les humains aux alentours des années 2040). Œuvres qui viennent comme en compensation de cette calculabilité généralisée dans laquelle certains voient le destin de l’humanité se résoudre, se rétracter, si l’on ose dire, en une sorte de « téléologie négative » ou sans emploi.

Il n’y a d’ailleurs pas nécessairement de contradiction entre ces deux dimensions de la temporalité : soit l’idée d’un temps qui emporte tout sur son passage et règle les rythmes de chacun sur une sorte d’horloge collective qui tournerait selon le modèle des sociétés d’insectes (canalisant toute expression arythmique ou asynchrone des individus dans la majesté et l’évidence de son propre flux : ce serait là le modèle des freeways californiennes décrites par Baudrillard dans son beau récit — mais un récit désenchanté aussi — de voyage en Amérique (8)), soit au contraire l’idée que chaque être humain particulier se ferait l’inventeur, à travers la complexification croissante des grilles horaires, des emplois du temps, et de la réduction du temps de travail, ou la délinéarisation des flux télévisuels, de sa propre horloge biotechnologique et culturelle. Tel qui roule dans son automobile est ainsi à l’écoute d’un autre monde, plongé dans la profondeur immémoriale de sa culture d’origine (Arjun Appadurai a bien vu cet enchevêtrement des ethnoscapes et des médiascapes à propos des chauffeurs de taxi indiens à New York, dont la diaspora constitue une réalité politique qui a son poids, y compris en Inde même).

C’est là le modèle de certaines œuvres produites sur le mode éphémère comme des scénarios ou des actions scénarisées, qui ne visent à rien moins qu’à ouvrir à la multitude la possibilité d’une expérience singulière du récit, voire du micro-récit — là où domine globalement aujourd’hui l’impossibilité pour les êtres humains de porter librement la parole et le récit de leur expérience propre dans un échange intra-communautaire (encore que certains blogs invitent à relativiser cette assertion), ou alors sous la forme exhibitionniste et artificielle de la téléréalité (9). Ainsi, de cette expérience .walk relatée à nouveau lors du symposium des arts électroniques ISEA de septembre 2010. Au festival Transmediale de Berlin en 2004, ce projet de locative media intitulé .walk (« dotwalk ») avait reçu une mention honorable pour la prestigieuse compétition des « software awards ». Développé par un collectif artistique d’Utrech, Social Fiction, .walk combinait le code informatique et l’exploration urbaine « psychogéographique ». Selon certains observateurs, le succès de ce simple projet est représentatif d’un événement plus important qui prend place dans le monde des arts médiatiques, dans lequel, laissant derrière eux le net art, les locative media s’échappent des frontières de l’écran pour entrer dans la ville. […/…]

Ce que l’on peut dire, c’est que l’art des locative media réalise une forme de convergence entre l’art numérique et l’art urbain. Mais du même coup, il contribue à déstabiliser et l’un et l’autre, voire à la possibilité de leur dépassement à venir ou de leur résolution dans quelque chose d’autre, qui serait comme un art des lieux affranchi de l’opposition du local et du global, un art de la globalisation si l’on veut ; en ce sens, il participe de cette exigence que souligne Grégory Chatonsky, de penser la relation art/technique au-delà du malentendu dans lequel elle s’inscrit depuis toujours par cette double instrumentalisation qu’il dénonce — et en effet , tous ces projets participent de l’idée que l’ordinateur est un écran qui ouvre vers le monde du dehors, et au fond que ses usages artistiques antérieurs tels que le net art seraient dépassés.

Et en effet, l’art des lieux participe d’un processus ancien et continu de délocalisation et de « mobilisation » : du temple vers les haut-lieux sacrés, des hauts lieux vers les lieux du profane, tels les parcs ou les jardins, les monuments ou les places publiques, jusqu’aux lieux en déshérence, aux quartiers abandonnés, ou encore vers les lieux en mouvement que sont les lignes de tramway ou de métro, quand ce ne sont pas les non-lieux que les artistes élèvent alors en les occupant à la dimension d’un « vrai » lieu. Ce qui est en jeu dans un tel processus, c’est, comme l’ont souligné de nombreux commentateurs, la progressive montée en puissance des arts du temps et du rythme dans les arts du volume et de l’espace, à travers l’usage de plus en plus fréquent du son dans de nombreuses installations, mais aussi de l’image animée, ou encore du récit et de la fiction tels qu’ils s’énoncent le long des lignes de tramways ou d’autres formes-trajets.

Mais l’art numérique est lui aussi, on l’a vu, confronté à la nécessité de son propre dépassement, et celui-ci se réalise en effet à travers son intégration progressive au « champ classique de l’art », ou alors à son assimilation plus ou moins conflictuelle au monde contemporain du business, et en particulier du business des cultures numériques. À ces réserves près, on peut dire que ce qui rassemble les œuvres ici évoquées, c’est d’abord qu’elles participent d’un modèle systémique ou systématique de mise en œuvre, qui témoigne de leur filiation avec les littératures à contraintes. Elles fonctionnent comme un système ouvert, mais qui repose sur le postulat d’une grille d’analyse, de lecture, un opérateur ou un embrayeur de mise en œuvre, qui trouve son modèle dans les sciences du contrôle, de la régulation, ou de la planification, comme la cybernétique, la systémique ou la cartographie (ce qui ne pas sans reposer l’éternelle question, surtout s’agissant d’une nouvelle version de la poétique de la ville fondée pour une bonne part sur des techniques de traçabilité, de l’équilibre instable du contrôle et de la liberté).

En conjuguant le réel et sa représentation selon un modèle qui intègre la représentation et la trace au corps même de l’expérience, ces pratiques s’inscrivent dans une filiation littéraire à laquelle on peut aussi associer Stendhal (qui dans ses Souvenirs d’égotisme, dessine les plans des lieux auxquels il lui a été donné de vivre telle ou telle expérience), mais aussi bien sûr Perec ou, comme on l’a vu, les situationnistes — mais c’est alors d’une « pyschogéographie générative » qu’il s’agirait. Un aspect important tient à l’économie des moyens narratifs qu’elles sollicitent ou qu’elles produisent. Jean-Louis Boissier remarque à ce propos la filiation de ces expérimentations avec les schifters dont Barthes avait dans un beau texte évoqué les qualités poétiques éventuelles, telles qu’elles s’expriment dans les énoncés brefs des cartes postales, et dont les actuels SMS offrent une nouvelle version. C’est une même économie de moyens que vise Sophie Calle quand, à propos de son œuvre transports-amoureux.vu, elle déclare aimer le style économique, concis et poétique des messages que l’on trouve dans la presse quand les gens souhaitent se retrouver.

Ensuite, c’est qu’elles procèdent d’un feuilletage du réel, qui se présente en couches, en strates, en cartes dynamiques superposées, ou plans constituant autant de points de vue fragmentaires qui se superposent et s’additionnent à propos d’un site, d’une forme-trajet, d’un « entour », plus qu’ils ne servent à y projeter l’objet perçu dans sa totalité. Elles réalisent en un sens le dépassement de l’opposition entre la vison en surplomb et l’expérience, et la vison trajective comme expérience concrète du lieu et de l’espace, au profit d’un espace dont le modèle serait la vision panoramique telle que l’envisage Bruno Latour (pour Latour, le panorama n’est pas un point de vue surplombant, et extérieur aux autres visions possibles vues d’en bas, à même la ville, il réalise seulement un plus grand nombre de connexions entre les différentes visions possibles, dont il fait lui-même partie, mais à un degré supérieur de synthèse (12)).

Mais il n’est pas possible d’épuiser l’ensemble des points de vue possible à partir de mon champ de vision, et c’est avec une totalité ouverte qu’il me faut composer, une totalité qui ne serait pas tant la somme des parties qu’une partie additionnelle — car il existe toujours la possibilité non seulement d’un point de vue qui m’échappe, mais aussi d’un point de vue à partir duquel c’est une autre réalité qui se dessine dans mon champ de vision : si bien que le « moteur », si j’ose dire de la représentation, ce n’est pas l’œil et l’optique projective de la Renaissance, mais le mouvement et le déplacement, dans des espaces simultanément ou alternativement vécus concrètement et représentés/enregistrés « abstraitement ». Et donc, un troisième trait significatif de cette esthétique du déplacement, c’est qu’elle relève d’un espace de collage ou de recollement, plutôt que d’un espace de projection, espace que Deleuze et Guattari anticipèrent, à travers leur idée du corps sans organe.

En tous ces sens, on serait enclin à penser que c’est finalement le cinéma qui constitue le modèle de cette évolution — mais un cinéma en devenir permanent et dont le centre de gravité est indissolublement situé en arrière-plan de notre temps, du côté de la vieille modernité, et en propulsion vers l’avenir, dans son alliance en cours de réalisation avec le réseau, un cinéma-réseau qui traverse déjà de part en part le processus en cours d’éditorialisation artistique de la ville. Mais cinéma, dès lors, s’entendant en divers sens qu’il faudrait approfondir : à la fois dans le sens du cinéma « installé » de l’art contemporain, et le cinéma délocalisé et comme réticularisé d’aujourd’hui, s’il est vrai que le cinéma s’est lui-même affranchi de la salle obscure qui faisait corps avec son histoire et sa mémoire, et s’est ouvert à des modes de diffusion, des supports et des lieux de plus en plus nombreux et interconnectés (c’est ce dont témoigne en particulier une manifestation comme le Festival des 4 écrans, initié par Hervé Chabalier, et qui repose sur l’idée de repenser la question de l’écran dans sa démultiplication même, entre cinéma, télévision, ordinateur et Smartphone — et les effets qui en résultent quant à la création cinématographique elle-même — dont la multiplication des manifestations et festivals de cinéma consacrés aux très courts formats serait le symptôme (13).

Il ne faut pas non plus oublier la multiplication des projections dans la ville même, la salle obscure s’extériorisant alors dans la vraie vie qui fait son cinéma — non plus d’ailleurs que l’avènement prochain du 5ème écran, qui réalise la fusion du cinéma interactif et des appareils télénumériques de connexion : le 5ème écran comme opérateur d’agencements inédits et interactifs du collectif et de l’individuel dans l’espace urbain, selon une logique de traitement de l’information qui ouvre de réelles perspectives à cette transindividuation qui fait défaut dans l’espace public de nos sociétés (rappelons que la transindividuation chez Simondon, c’est cette invention réciproque du sujet dans sa relation aux autres, à travers les mécanismes d’appropriation et de transformation des schèmes et des objets, en particulier techniques, qui évoluent eux-mêmes à travers ces processus d’échanges individuels et collectifs. Bernard Stiegler a repris ce thème en s’appuyant sur l’exemple de la langue, qui illustre parfaitement ce processus (14) : en effet, dans le cas de la langue, le je et le nous se construisent réciproquement à travers ces jeux complexes de projection et d’appropriation, de locution et d’interlocution, qui ne peuvent exactement se prédire, mais seulement se constater, et s’enregistrer dans un usage de plus en plus intensif qu’en font les uns et les autres; mots et vocables inouïs dans la « société » desquels les hommes se vivent de plus en plus, jusqu’au point où les académiciens ne peuvent ensuite que consacrer cet usage dans le dictionnaire, quand ces mots, comme disaient les classiques, finissent par « faire société ».

Mais aussi du cinéma « augmenté », dans tous les sens que cet adjectif est susceptible de prendre aujourd’hui, à la fois celui de cette montée des simulacres qui forme l’arrière-plan de la pensée critique moderne, de Baudrillard à Jacinto Ligeira, et celui de l’essor de ces villes-fiction, qui de Las Vegas à Dubaï apparaissent comme une expansion fictionnelle du monde, entre artifice et fiction. Et dans le sens enfin du cinéma entendu comme cet art industriel qui se déplace sans cesse sur la frontière entre art et non-art — ainsi que le fait l’art des locative media, qui emprunte à la fois à plusieurs arts, et entend parfois s’affranchir du champ classique de l’art. Et aux yeux des acteurs du monde des locative media, il est question, je cite, non seulement d’un changement de paradigme dans le monde de l’art, mais aussi d’une reconfiguration de notre vie quotidienne dans le sens du renouvellement de notre place dans le monde.

Le réel c’est ce qui fait trou, disait Lacan. Face à cela, le codage d’un même espace vu selon des points de vue différents porte peut-être la chance d’une autre aventure dans la réalité de la ville même, et d’une autre relation entre l’art et la ville — d’une prise et d’une « reprise » artistique dans le tissu urbain, à travers le jeu des vrais et faux raccords entre tous ces points de vue, avec la part de contingence et de « bruit » fatal qui en résulte, et qui seraient, pour reprendre la formule de Duchamp, comme leur commun coefficient d’art. Un art improbable encore, « fait par tous, non par un ».

Norbert Hillaire
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Norbert Hillaire est professeur à l’Université de Nice-Sophia Antipolis où il dirige le master « ingénierie de la création multimédia ». Théoricien et artiste, il s’est imposé comme l’un des initiateurs de la réflexion sur les arts et les technologies numériques, à travers de nombreuses publications, directions d’ouvrages et missions prospectives pour de grandes institutions (ministère de la Culture, Centre Pompidou, Datar). Son ouvrage, coécrit avec Edmond Couchot, L’art numérique : comment la technologie vient au monde de l’art (Flammarion, 2003), fait aujourd’hui référence. Comme artiste, ses photomobiles interrogent les relations entre peinture, photographie et cinéma et sont régulièrement exposées en France et à l’étranger

(1) On lira avec profit à ce sujet l’ouvrage de Jacinto Lageira, La déréalisation du monde : réalité et fiction en conflit, Jacqueline Chambon, 2010.

(2) Voir Thierry Paquot et Chris Younès (Dir), Philosophie de l’environnement et milieux urbains, La Découverte, 2010.

(3) « Contours et alentours », in Œuvre et Lieu, dir. Norbert Hillaire et Anne-Marie Charbonneaux, Flammarion, 2002

(4) Le document de présentation de l’œuvre rappelle l’histoire de la Biennale de Venise et nous enseigne qu’en 1938, les nazis avaient radicalement transformé ce petit hall consacré à l’art selon leurs conceptions architecturales. Ils en firent un bâtiment néoclassique à la façade sévère et rébarbative. En 1964, un réaménagement de l’intérieur a atténué le caractère autoritaire de son architecture. Mais le faire complètement disparaître aurait signifié la destruction du pavillon pour en construire un autre. Or le bâtiment a été classé monument historique. Il représente donc un défi pour les artistes qui y exposent. Quiconque aménage le pavillon allemand — qui jouit du soutien du ministère fédéral des Affaires étrangères — livre aussi automatiquement un commentaire sur l’histoire de l’édifice.

(5) Voir Patrice Maniglier, La perspective du diable, Figurations de l’espace et philosophie de la Renaissance à Rosemary’s Baby, Actes Sud/Villa Arson, 2010. L’auteur développe son analyse à partir de l’œuvre proposée par Laetitia Delafontaine et Gregory Niel, qui se présente comme un duo d’artistes-architectes.

(6) Patrick Raynaud, Giratoire, 1989. Les panneaux indiquent une quarantaine de noms de villes où l’artiste a exposé. Rond-point de Vuers, Villeurbanne.

(7) Marc Augé, Non-Lieux, introduction à une anthropologie de la surmodernité, Seuil, 1992.

(8) Jean Baudrillard, Amérique, Grasset, 1986.

(9) Ou encore sous la forme de ces albums de voyage préconçus dans les nombreuses applications informatiques de nos ordinateurs comme de simples archives familiales à usage strictement privé. Fictions photographiques et récits largement contenus dans les limites de cet ordre narratif surplombant dont le storytelling offre le modèle, mais dont la fiction des parcs de loisirs et même des méga-parcs de loisirs du genre de ceux qui se construisent à Dubaï fournissent un aperçu encore plus spectaculaire.

(10) Mobilisable : nom d’une manifestation qui regroupe L’Ensad (EnsadLab), en coopération avec l’Université Paris 8 (laboratoire Esthétique des nouveaux médias) et l’École nationale supérieure d’architecture de Toulouse, avec le concours la Haute école d’art et de design de Genève (laboratoire Formes de l’interactivité) et de l’University of the Arts in Tokyo (Graduate School of Film and New Media), autour des mutations artistiques qu’impliquent les médias du déplacement et de la localisation, l’émergence du paysage technologique, les nouvelles formes de cartographie et de récit, les nouvelles modalités de la dialectique mobile-immobile, les nouveaux instruments de l’exercice de la mobilité. Le terme mobilisable qualifie alors des formes artistiques et des œuvres, mais aussi de possibles comportements des artistes et du public, de la collectivité engagée dans de tels processus artistiques, scientifiques et culturels.

(11) Grégory Chatonsky, « dialectiques de la singularité de l’art numérique », www.digital-arts-numeriques-diary.be/2010/10/13/art-numerique-description-12/#more-2896

(12) Voir : www.bruno-latour.fr/virtual/PARIS-INVISIBLE-GB.pdf

(13) Voir : www.festival-4ecrans.eu

(14) Voir Bernard Stiegler, « Entreprendre autrement : pour refonder la société comme « milieu associé », in L’Artiste et l’entrepreneur 
(dir. Norbert Hillaire), Cité du Design Editions, 2008.

— avant, avec et après le Web

Jusqu’à la fin du 20e siècle, il était naturel à l’être humain, obéissant à l’ordre conceptuel occidental, de se considérer comme un individu unique, propriétaire d’un nom de famille inaliénable, responsable de ses actes et de l’expression de ses pensées sa vie durant. Si d’aventure, il se livrait aux œuvres de l’esprit, il lui était tout aussi naturel d’être regardé comme l’auteur, c’est-à-dire le propriétaire de ses mots et de ses créations. Ce qui était naturel ne l’est plus. Non que tout cela ait disparu — loin de là, mais les concepts qui constituaient l’identité de l’être humain occidental ont cessé d’être des évidences sous l’effet du Web. L’objet de cet article est d’examiner de quelle manière le concept d’identité, au sens de l’identité civile et métaphysique, a été affecté par le Web.

L’identité avant le Web (1539 – 1993)
Avant le Web, il y avait des vrais et des faux noms. En France, avec l’ordonnance de Villers-Cotterêts (1539), soit 88 ans après le premier livre imprimé selon la technologie de Gutenberg, François 1er impose l’enregistrement des noms de baptême dans les registres de l’Église catholique. La possession d’un nom de famille devient obligatoire. Dans son article 51, le nom est inscrit « en forme de preuve », autrement dit, selon le rapport mathématique classique (À=À), l’identité moderne relie un corps et un nom propre. L’acte de naissance repose alors sur une déclaration et s’établit selon une filiation. Ainsi se construit la distinction entre le « vrai » nom et le « faux » nom — ou pseudonyme. Dans le même temps, l’ordonnance de Villers-Cotterêts impose la langue française à tous les actes juridiques, introduisant alors une double identité : individuelle, par le nom patronymique, et politique, par l’unité de la langue.

Avant le Web, en 1641, Descartes publie en latin puis, en 1647, en français, les Méditations Métaphysiques. Grâce à l’imprimerie, le livre, bien plus répandu que le manuscrit, peut se lire seul et en silence. Destiné à l’apprenti-philosophe, l’ouvrage de Descartes offre une méditation solitaire qui commence par asseoir le moi comme fondement de la connaissance. Auto-centré, le moi échappe heureusement au solipsisme par la preuve ontologique de l’existence d’un Dieu vérace et créateur continuel du monde. Inscrit dans le monde créé par Dieu, le moi demeure une réalité unique et continue à travers le temps. La mémoire de mon expérience et de mes pensées est ainsi fondée. À la suite du moi de Montaigne, le moi cartésien s’écrit dans les livres. Il n’est pas question d’attribuer au seul Descartes ce qui va suivre. Mais une lecture attentive des Méditations montre combien sa pensée a répondu aux attentes d’une époque.

Chez Descartes, la garantie d’une mémoire continue et fiable, non perturbée par un Dieu par essence vérace, lui permet de mener un raisonnement méthodique dans un temps continu et, surtout, de porter par écrit ses méditations. Or c’est parce qu’il est considéré implicitement comme une technologie de la mémoire que le livre imprimé est naturellement le siège légitime de l’expression du raisonnement et de l’intention. Deux siècles auparavant celles-ci se trouvaient encore très majoritairement dans la parole contradictoire et communautaire. Sous l’effet de l’imprimerie, les savoirs s’incarnent dans les livres. Mais il n’en a pas toujours été ainsi et il n’en sera pas toujours ainsi. Il y eut un temps où, au Moyen-Âge, comme le souligne Mary Carruthers (1), le livre n’avait pas les fonctions mémorielles qu’on lui accorde aujourd’hui, il fut un temps où le livre était une machine à penser, comme pendant l’Antiquité, à la façon du Manuel d’Epictète conçu comme une matrice d’exercices spirituels destinée aux novices et dont doit se débarrasser le sage stoïcien.

Avant le Web, il y avait l’individu autonome et socialement responsable né au croisement de la permanence de l’imprimé, du nom patronymique ainsi que de l’unité et la continuité de la conscience. Ces nouveautés conceptuelles répondent aux besoins du capitalisme naissant, qui repose sur le contrat synallagmatique. Un tel contrat n’existe que s’il y a une date de début du contrat, une durée et deux contractants au moins. Le contrat exige que l’écrit soit le garant de la mémoire et que les contractants restent métaphysiquement — et non psychologiquement — identiques à eux-mêmes à travers le temps, une identité métaphysique exprimée socialement par le nom patronymique et traduite symboliquement par la signature apposée sur tout contrat. Par la suite, ce schéma s’étendra à la politique elle-même. L’individu — défini par son identité, sa permanence et son unicité — est l’atome d’une société formée par contrat, tant du point de vue économique que du point de vue politique. Toute la conception moderne du politique reposera sur cette idée. Que l’on renverse le rapport de la société à l’individu demeure une conception de l’individu.

Avant le Web, la structuration du savoir tout entier était articulée sur l’identification de la source de la parole et de la légitimité du nom de l’auteur à parler. Prenez cette phrase de Galilée, le père de la science moderne : « La Nature est un livre ouvert écrit en langage mathématique » [je souligne]. Il n’y a pas de savoir moderne s’il n’est écrit, c’est-à-dire s’il n’est imprimé selon le format du livre et il n’y a pas de livre imprimé sans auteur, sans nom, sans identification, sans responsabilité du discours tenu. L’imprimé lui-même n’échappe pas à l’ordre dont il a été la condition. En retour, la publication d’un livre imprimé légitime son auteur dans un domaine donné du savoir et lui confère une propriété sur ce qui y est écrit. Le livre est un contrat entre l’auteur et la société. Il lui accorde un pouvoir et une propriété en échange d’une responsabilité perpétuelle.

Avant le Web, l’identité est un concept forgé à l’aide d’un postulat juridique (la distinction entre le « vrai » nom et le faux « nom »), d’une théorie métaphysique de la permanence de l’être humain et d’une théorie du contrat supposant l’individu social. Au 17 et 18e siècles, croisant la biopolitique — le réseau de discours et de pratiques du politique sur le corps et la vie, elle inclut la notion de genre (homme / femme). Au 19e siècle, elle s’accompagne d’un processus d’identification technique, avec le bertillonnage notamment. Enfin, dernière étape — mais non l’ultime – selon la logique d’unicité du moi, les techniques d’identification politique (la carte d’identité — émanation du registre des baptêmes puis de l’état civil), l’identification sociale (la carte d’assuré sociale) et l’identification génétique (l’ADN) convergent aujourd’hui vers un seul point, à l’instar des cartes d’identité regroupant l’ensemble des données d’un même corps à l’œuvre dans quelques pays européens (Belgique, Portugal).

Avec le Web (1993 – 2005)
Avec le Web, au 20e siècle, après les dadaïstes, les formalistes russes, les structuralistes et les post-structuralistes, après Michel Foucault et Roland Barthes, l’auteur mourrait une énième fois : l’hypertexte mène tout droit à ce que Roland Barthes définissait comme « la mort de l’auteur », et avec elle à la disparition des notions d’exclusivité et d’autonomie qui jouèrent un rôle majeur dans la formation de l’esprit moderne et la consolidation de la propriété privée (2). L’hypertexte ouvert (le HTTP) comporte en lui-même l’idée du partage, de l’appropriation et de l’expression collective, autant d’effets obligeant à penser une nouvelle fois la notion de l’auteur. Cette fois, il n’est pas question d’invoquer l’auteur propriétaire et bourgeois, ni le rôle du lecteur dans l’écriture. Cette fois, l’auteur est véritablement déclassé. L’hypertexte est l’un des trois éléments fondamentaux du Web, qui repose aussi sur un langage (le HTML) et surtout, sur un mode d’adresse (l’URL). La combinaison de ces trois éléments, associés aux ventes massives de PC et à la stabilisation des systèmes par le mode protégé installé sur le processeur Intel 80286, a permis à l’Internet, devenu public depuis 1983, de devenir le média dominant aujourd’hui. En plaçant l’application dans le domaine public en 1993, le CERN et les inventeurs du WorldWideWeb, Tim Berners-Lee et Robert Cailliau, ont fait don à la planète tout entière des possibilités de l’Internet : n’importe qui peut accéder au savoir de n’importe qui, sans que nécessairement, l’auteur de ce savoir soit connu.

Ne nous méprenons pas. Du point de vue de la communication des machines par l’Internet, ces dernières sont toujours identifiables, même si le fractionnement des messages et son routage ouvrent des marges d’incertitude. Mais du point de vue de l’utilisateur, l’Internet est le réseau de l’anonymat. Avec l’Internet (qui est un réseau de communication de machines à machines), la communication d’homme à homme est d’abord une communication d’homme à machine. Or, sur ce point, dès sa naissance l’informatique a fait naître un possible, celui que l’homme se trouve un jour dans l’incapacité de discerner l’intelligence humaine de l’intelligence de la machine. Cette idée d’indiscernabilité de la nature de l’auteur d’un message (être humain ou machine) a été formulée dès 1950 par Alan Turing dans son article Computing machinery and intelligence (3). Turing propose un jeu (le jeu d’imitation) qui consiste à faire converser à l’aveugle un être humain avec un ordinateur et un autre humain. Si le premier humain n’est pas capable de dire qui est l’ordinateur et qui est l’être humain, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. En fait, aucun logiciel n’a jamais réussi le test de Turing. Cette indiscernabilité de l’interlocuteur est une idée régulatrice, non une réalité. Rapportée à l’Internet, c’est-à-dire à la mise en réseau des machines informatiques, cette idée devient un problème, celui de l’identification des machines. Rapportée au Web, à un réseau infini et indéfini de pages écrites par une infinité d’êtres humains, cette idée devient un fait.

En 1993, paraissait dans The New Yorker, un dessin devenu célèbre de Peter Steiner. On y voit un chien tapoter sur un ordinateur et disant à un autre : On the Internet, nobody knows you’re a dog. C’était il y a trente ans. À cette époque, l’Internet et le Web réalisaient le village global de McLuhan. L’utopie numérique, telle que la décrite Fred Turner (4), en était sans doute à son point culminant. Pour peu qu’on puisse conférer une unité à la cyberculture, ce mélange composé d’informaticiens universitaires, d’écrivains cyberpunks (Gilson, Stephenson, Sterling…), de féministes cyborgs, de consommateurs de LSD, d’anciens hippies versés dans la culture chamanique et hindouiste, voyait avec la constitution du réseau mondial l’établissement d’une conscience universelle et d’une intelligence collective (Pierre Lévy en 1994 (5)), se déployant en une multiplicité de singularités interconnectées, en une déclinaison d’avatars — dont l’origine du mot prend ici tout son sens —, êtres vivants, humains, animaux et végétaux, traversés par une même énergie électrique englobant une planète unifiée. Le moi des Modernes cessait d’être une île (pour reprendre l’expression de Jean-François Lyotard (6)) tandis que les sites Web formaient des archipels dans un océan animé une nouvelle fois par les utopies pirates (Hakim Bey (7)). Dans le même temps, l’Internet était un nouvel espace d’exil, un nouveau territoire, un nouveau monde, voire une seconde vie, pour des êtres humains devenus globalement claustrophobes par la clôture de la planète par les satellites et l’arrêt — provisoire — de la conquête spatiale. L’interconnexion était alors non seulement synonyme de partage, de multiplicités et de libération sexuelle, mais aussi d’exil par la fictionnalisation et l’extension de l’existence.

Avec le Web, le moi est le fruit du partage. En ce sens, le moi connecté cesse d’être le centre de ses représentations pour devenir le centre de la totalité des liens par lesquels il accède à ses représentations. Emmanuel Kant comprenait le sujet de deux manières : 1) comme le centre métaphysique de ses représentations ; 2) comme le sujet psychologique conscient de ses représentations. C’est à ce dernier sujet anthropologique que le nom est rattaché (« Charles a dit que… »). Or, avec le Web, les représentations ne forment pas l’essentiel du moi, ce dernier résidant dans les liens de tous avec tous. Le moi est un être social, écrivait Marx, ce qui aujourd’hui, pourrait se traduire par : le moi est un être connecté… aux machines… aux autres êtres du Web (humains, êtres fictionnels ou encore des machines – les fameux bots communicationnels). Dans L’âge de l’accès (1997), Jeremy Rifkin écrit : La formule de Descartes « Je pense donc je suis » peut désormais être remplacée par une nouvelle devise : « Je suis connecté, donc j’existe ». Avec le Web, chaque corps est inter-dépendant des autres et agit comme un transformateur sophistiqué qui maintient à l’existence le savoir commun. Aux autres corps et aux autres machines, il redistribue l’électricité qu’il a reçue – matière première des machines – selon ses valeurs et sa propre temporalité.

Avec le Web, chaque utilisateur peut se donner un nom et en changer. Qu’est-ce qu’un nom avec le Web ? C’est le marqueur d’une unité de temps. Du point de vue du corps de l’internaute, le Web c’est du temps. Du temps des machines, du temps des requêtes, mais aussi du temps passé par un corps qui remplit un rôle. Or les rôles avec le Web sont multiples. La nouveauté avec le Web, c’est que les noms peuvent être multiples. Pour reprendre Wittgenstein, les noms s’écrivent au fil de la multiplicité des jeux de langage propres au Web et à l’Internet. Dans une même journée, l’utilisateur peut changer de noms autant de fois qu’il le souhaite, en fonction des rôles qui seront les siens, à l’image des fourmis qui changent d’identifiants chimiques lorsqu’elles changent de tâches (8). Il a un nom pour travailler, un autre pour jouer, pour vivre une fiction, un autre pour échanger, commenter, partager, etc. En séparant le discours de son émetteur, en rendant possible la multiplication des identités et l’anonymat, le Web renverse l’ordre du monde moderne construit sur l’identité. Pourquoi définir l’identité par le nom, puisque dans leur multiplicité et leur métamorphose infinie, ces noms identifient, non un individu unique, mais des singularités ponctuelles et éphémères, qui n’existent que le temps d’un rôle.

Avec le Web, une femme peut devenir un homme et un homme, une femme, ou encore un animal ou autre chose. Le « jeu d’imitation » ou test de Turing tire son origine d’un jeu, dans lequel, par des questions / réponses adressées simultanément à un homme et à une femme, un homme essaie de deviner le genre de ses interlocuteurs. Quand on connait le poids du test de Turing dans la théorie informatique, ce n’est pas trop de dire que la question de l’identification homme / femme est au cœur même de la théorie de la communication homme / machine. L’interchangeabilité homme / femme rompt avec l’une des fonctions majeures de l’écriture imprimée. Comme le montre Friedrich Kittler (9) le livre a été l’instrument par lequel la voix maternelle s’est instruite et, dans le même temps, s’est transmise. Kittler écrit que les textes agissent d’une manière savante sur les femmes exactement comme la mère sur les auteurs. C’est ainsi que pendant le Goethezeit (1770 – 1830), selon un cercle érotico-herméneutique, la littérature allemande s’auto-destine aux mères des futurs auteurs essentiellement masculins, qui forgeant et homogénéisant la langue allemande, forment en retour les mères du peuple Allemand… Autrement dit, parce qu’il est un des rouages de la machine culturelle nationale, le livre possède une destination genrée et c’est en étant genré qu’il peut fabriquer une identité nationale.

Avec l’écriture alphabétique, la voix s’écrit en lettres, c’est-à-dire en sons, lesquels ne sont à proprement parler écrits que lorsque leur agencement s’accompagne d’un sens. Avec l’ordinateur, tout type de contenu peut être enregistré par deux signaux élémentaires. L’écrit n’est alors qu’un stock de données qui doit être lu par des machines avant d’être lu par des êtres humains. Si l’on continue d’assigner à la littérature une fonction fabricatrice de la langue commune, et si l’on admet que la littérature est informée par les machines d’écriture, alors il faut admettre que la production et la réception de la langue écrite présupposent aujourd’hui aussi bien le code que la voix maternelle. La femme, génétiquement et culturellement codée, et la machine informatiquement codée sont désormais les deux conditions de la fabrication de la langue. C’est dans cet esprit, me semble-t-il, que fusionnant ces deux conditions, Donna Haraway refuse de penser la femme comme un genre installé dans un rapport binaire à l’homme. Cela reviendrait à jouer le jeu de l’identification et donc de la genderisation de la société. Elle soutient que le moi féminin est au contraire à coder, c’est-à-dire à dépasser dans la mythologie du Cyborg, être hybride à la fois organique et informatique (10). Le Cyborg peut revêtir de multiples formes. L’image d’un corps augmenté et prothétique en est une. L’image du corps en réseau en est une autre. Produite avec le Web, c’est-à-dire avec des êtres dont le genre est indiscernable, l’écriture n’est plus en mesure de produire une identité nationale, bien qu’elle continue à fabriquer la langue commune. Celle-ci et l’idée de nation étant découplées, la question du commun politique se pose en de nouveaux termes. L’absence d’une réponse politique qui permettrait de reconstruire une vie commune à la mesure de l’Internet désoriente les peuples qui lisent et écrivent de plus en plus avec le réseau. En attendant, se développe une réaction politique et culturelle identitaire fondée sur les concepts traditionnels de l’identification (nom, nationalité, sexe).

Avec le Web, l’important n’est pas de savoir qui parle, mais de faire circuler la parole. Corps singuliers, multiples, passant indifféremment d’un nom à un autre, d’un genre à un autre, devenant animal, végétal ou minéral, les corps du Web émetteurs et récepteurs d’écritures informatiques n’ont d’autres choix que de supposer qu’ailleurs, sur le Web, il y a bien quelqu’un derrière la machine. En réalité, un doute est toujours possible. Et ce possible-là constitue le cadre pragmatique de toute communication avec l’Internet, et avec le Web en particulier. Le Web évacue la question du discernement de l’identité pour laisser place à ce qui est écrit. Avec le Web, nous sommes passés d’une valorisation de l’écrit en fonction de son auteur, nommé et marqué socialement et sexuellement (prénom, nom, qualité, genre), à une valorisation de l’écrit par le fait de sa seule circulation, chaque lecteur devenant alors le médium d’un écrit qui peut venir de n’importe où et de n’importe qui. En quelque sorte, l’écrit prend sa valeur non par l’émetteur, mais par le chemin nécessairement bruyant, selon la théorie de Shannon, qui le mène de l’émetteur à la réception universelle. Avec le Web, chacun peut alors écrire, c’est-à-dire faire exister un autre nom, qui pourra d’ailleurs posséder une existence propre, une existence qui ne sera pas nécessairement reliée aux autres noms. C’est ce nouveau mode d’existence que de nombreux artistes, comme Mouchette, ont exploré dans les années 1990, jouant de ce réseau devenu la scène d’un théâtre global et un carnaval de l’espace public communicationnel. Ainsi Douglas Coupland écrivait-il : Internet me fait espérer que dans le futur chacun revêtira un costume d’Halloween 365 jours par an (11).

Dans ces conditions, les mutations de l’identité du moi social et politique appelaient une dramaturgie. Le Web répondait d’une nouvelle manière au désir humain de la création d’être fictionnel. Avec le roman, avec le cinéma, avec le théâtre, il était une nouvelle façon de peupler l’imaginaire humain de personnages. Au-delà du pseudonyme qui n’est que le masque du nom patronymique, il est désormais possible de jouir du plaisir divin de créer dans le monde réel des êtres connectés, des êtres purement fictionnels et hétéronymiques, au sens pessoaien du terme. Ces êtres ont autant de réalité qu’un être qualifié habituellement de réel. Le concept de virtualité est ici inopérant. Comme tous les êtres connectés, ils participent à cet ensemble éclaté et relié qui fait circuler la parole de façon ininterrompue.

En aucune manière, les êtres fictionnels du Web ne se substituent aux humains. En disant qu’ils envahissent le champ de l’existence, qu’ils constituent une forme d’aliénation ou de schizophrénie, on adresse au Web le même type de reproche que l’on faisait jadis aux romans ou aux séries de la télévision. Ces êtres sont des êtres d’imitation, qui fonctionnent dans le cadre du jeu de Turing. Comme le rappelle J.-M. Schaeffer (12), le test de Turing repose sur l’idée que si une imitation ne peut être distinguée de l’activité imitée, il n’y a plus de différence pertinente entre les deux. Or l’incapacité de distinguer deux faits n’implique pas qu’il y ait identité entre les deux. Schaeffer écrit que si le papillon qui ressemble à un rapace était un rapace, il n’aurait pas besoin d’être pris pour un rapace, il aurait au contraire intérêt à ce qu’on ne le prenne pas pour un rapace. Le fait qu’on ne distingue pas la réalité du semblant fictionnel ne change rien au fait qu’il y ait d’un côté la réalité et de l’autre le semblant fictionnel.

Toutefois le semblant n’est pas non-être, il est tout aussi réel que la réalité pour le récepteur, pour le rapace qui voit le papillon. Or, le web n’a supprimé ni les rapaces ni les papillons. Mais tel un rapace, l’internaute ne voit avec le Web que d’autres internautes. Autrement dit, avec le Web, un nom exprimant une existence fictionnelle a autant de réalité qu’un nom exprimant une existence dite « réelle ». Or, dans la mesure où le Web ne fait connaître que les existences que par leurs noms, ces existences sont toutes équivalentes. C’est finalement la limite du moteur de recherche Google, son effet pervers. Google mélange les rapaces et les papillons, pour le bonheur des papillons qui se cachent des rapaces, pour le bonheur des comptes multiples, des pseudonymes et des hétéronymes.

Mais, à la différence d’autres formes fictionnelles, les êtres hétéronymiques du Web participent à l’intelligence et à l’action collective ainsi qu’au maintien énergétique de la nouvelle conscience universelle. Dépendant non seulement de l’esprit, mais aussi du corps de l’internaute qui se métamorphose à leur contact — il suffit d’observer le corps du joueur en réseau pour s’en convaincre —, ils sont joués par l’internaute, comme l’acteur joue un personnage. Pendant un temps donné, il n’est que lui, c’est-à-dire à la fois ce personnage et cet acteur qui, jouant ce personnage, demeure lui-même en mutant. Dans Microserfs (1995), Douglas Coupland écrit : J’adhère à la théorie Tootsie : si vous vous concoctez une méta-personnalité convaincante sur le Net, alors vous êtes cette personnalité. De nos jours, il existe si peu d’éléments pour attribuer une identité à quelqu’un que la gamme d’identités que vous inventez dans le vide du net, le menu de vos « soi » alternatifs, est vous. Un isotope de vous. Une photocopie de vous. C’est en ce sens que l’on peut dire que le Web, espace du jeu d’imitation par définition, est l’espace des métamorphoses permanentes. Répondant point par point à la définition du Web (partage, multiplicité, mutativité et extension de l’existence et des différentes formes d’intelligence), le sujet métaphysique des êtres hétéronymiques est le web lui-même. Si le Web est un espace, il est peuplé d’humains affublés de vrais et de faux noms, d’êtres fictionnels et hétéronymiques et de robots communicationnels et informationnels.

Après le Web (2006 – …)
Telle était l’identité de l’homme occidental et connecté au milieu des années 2000, ou plus précisément avant Facebook. Si les États modernes avaient pu prendre une distance avec les exigences du capitalisme du 21e siècle, ils auraient alors pu proposer de réguler le nouvel espace public d’action et d’intelligence collective en épousant sa réalité, par exemple en proposant un statut juridique à l’hétéronymat (13). Au lieu de cela, depuis plusieurs années, la France, pour ne prendre que cet exemple, s’arme d’un appareil législatif destiné à protéger la notion d’identité telle qu’elle avait été établie depuis ces derniers siècles. DADVSI, LSI, LSQ, HADOPI, LOPPSI, autant de lois qui ont renforcé les procédures d’identification des internautes. Le point d’orgue de cette législation est sans doute le Décret n° 2011-219 du 25 février 2011, application de la Loi Pour la Confiance dans l’Économie Numérique, qui exige des Fournisseurs d’Accès à l’Internet qu’ils conservent pour chaque ouverture de compte — un an après la fermeture des comptes —, l’identifiant de la connexion; les noms et prénoms ou la raison sociale; les adresses postales associées; les pseudonymes utilisés [je souligne]; les adresses de courrier électronique ou de compte associées; le mot de passe ainsi que les données permettant de le vérifier ou de le modifier, dans leur dernière version mise à jour. En d’autres termes, plus le Web dissout la notion moderne de l’identité, plus les États modernes renforcent juridiquement cette notion et étendent les moyens d’identification des internautes. Ainsi, nous rappelle la Quadrature du Net, la Loi n° 2013-1168 du 18 décembre 2013 relative à la programmation militaire pour les années 2014 à 2019 [et notamment son article 20] ouvre la porte à une surveillance largement étendue des informations et documents sur Internet, y compris par la sollicitation du réseau en temps réel, avec la participation des opérateurs de télécommunication et de services Web, pour des finalités dépassant très largement les impératifs de la défense et la sécurité nationale (14).

Tout se passe comme si l’omniprésence du masque et de la fiction dans l’espace public du Web étaient devenus insupportables aux yeux de l’État. Il n’est pas anodin que l’État soit également parti à la chasse au masque dans l’espace public tangible, comme cela a été le cas avec la Loi du 11 octobre 2010, interdisant la dissimulation du visage dans l’espace public. La burqa et l’anonyme sur le réseau menacent, chacun à leur manière, la transparence de l’existence, soit la norme établie du mode de vie occidental (15). Mais qui a intérêt à la transparence ? Pourquoi faudrait-il donc que tout en les hommes soit clair, transparent et distinct ? On pourrait voir, dans le point de vue adopté par les États modernes, et la France en particulier, une sorte de point de vue platonicien visant à éradiquer les êtres fictionnels de la sphère publique. En réalité, l’enjeu est plutôt de réduire le Web à sa dimension marchande. Car, paradoxalement, les êtres fictionnels du Web n’ont pas échappé au sort des existences dans le mode de production capitaliste : ils sont devenus des marchandises. D’avatars polymorphes en métamorphoses créés par des internautes dotés de pouvoirs divins, le peuple du Web s’est transformé en profils pour des cabinets de recrutements et de marketing. Et, le propre d’une logique commerciale est de rendre ses produits les plus visibles possible.

Avec le Web, l’identité était multiple, en d’autres termes, elle était dissoute au regard de sa définition moderne. La frontière entre la fiction et le réel étant floutée, il importait peu que l’on révèle son intimité : Je étant plusieurs, il était une fiction comme une autre. Après le Web, avec Facebook, qui fut le premier réseau social à la mesure du Web, c’est-à-dire réellement planétaire, l’autre n’a plus de place. Dans les premières années de Facebook, son fondateur, Mark Zuckerberg ne cesse de dénoncer les faux profils, et sa société de les traquer par des dispositifs d’identification logicielle. Un réseau social comme Facebook repose sur ses profils, sur la marchandisation de ses données, à des fins publicitaires ou d’anticipations économiques et financières par l’exploitation statistique. Sa valeur reposant sur le nombre de ses utilisateurs, il ne peut se permettre d’avoir des profils fictifs. Depuis que les médias ont attribué une place importante aux réseaux sociaux dans les révolutions arabes de 2012, Facebook et le réseau social Google+ ont cessé d’exiger la fin des faux profils. Ils n’en d’ailleurs plus besoin. Car, tant que l’heure sera à l’auto-marchandisation de soi, le Web se dépeuplera de ses hétéronymes.

La fictionnalisation de l’existence, en effet, n’a pas disparu — comment le pourrait-elle puisqu’elle est intrinsèque au Web lui-même. Mais, sous l’effet des réseaux sociaux, elle se confond désormais avec l’existence patronymique. S’il y a une place pour la fiction, c’est celle du moi redevenu unique et individuel. Autre dimension propre au Web, la notion de partage demeure, elle aussi, un fait. Toutefois, la viralité des mèmes, des phénomènes d’imitation et de reprise (Harlem Shake, Lolcats…) qui se sont surtout développés à partir de 2005, ne vise pas à construire un espace et un temps commun de construction du savoir. Comme l’écrit Limor Shifman : Dans une ère marquée par « l’individualisme du réseau » [network individualism], les gens utilisent les mèmes afin d’exprimer simultanément leur caractère unique et leur connectivité (16). Il est intéressant de relever de quelle manière a évolué la pensée de la psychologue Sherry Turkle, qui a été l’une des premières à évoquer l’expérience de la multiplicité de l’identité ainsi que les méta-personnalités liées aux pratiques du réseau. Dans The Second Self, en 1984, Turkle introduisait l’idée que le rapport homme / machine affecte notre identité. Dans Life on the screen, publié en 1995, elle montrait comment les MUDs (jeux multi-joueurs en réseau) donnent naissance à des méta-personnalités [hétéronymiques] et un dépassement du genre. En 2011, Sherry Turkle publie Alone Together… Alors que le Web nous promettait une vie de partage et une vie collective, il nous laisse en réalité de nouveau bien seuls, en proie à la concurrence entre individus…

La fin du Carnaval a sonné. La nouvelle dramaturgie du Web est à la tragédie. Facebook a inventé l’identité privée — un profil, nourri par auto-divulgation et des mouchards (cookies, boutons…), qu’il publicise à l’envi. À Pékin, l’anonymat est interdit dans les réseaux sociaux (17). Et si la Corée du Sud revient sur le dispositif d’identification des blogueurs qu’elle avait mis en place de 2007 à 2012 (18), c’est que celui-ci est désormais inutile, tant l’identification de l’être internautique fait aujourd’hui l’objet d’une double identification par les États-espions et par les sociétés du Web marchand, les secondes alimentant d’ailleurs les premiers, comme l’ont montré les révélations d’Edward Snowden. Entre ces sociétés et les États, l’objectif est le même (19) : sauver l’identité individuelle. Il ne fait aucun doute que le masque théâtral n’a pas dit son dernier mot. Mais c’est désormais sur le terrain politique qu’il se place, comme en témoignent l’imaginaire autour des Révolutions arabes et la vigueur du masque de Guy Fawkes. Cinq siècles ont été nécessaires à la construction de l’espace public politique dans l’environnement de l’imprimé. La pensée et l’action politique, la construction d’une vie commune, au sein de l’environnement numérique, ne font, quant à elles, que commencer.

Emmanuel Guez
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014
Cet article reprend plusieurs articles rédigés entre 2009 et 2011. Il est placé sous licence libre (CC – BY – SA).

Professeur de philosophie de 1993 à 2006 (en France et en Allemagne), Emmanuel Guez a ensuite été chargé du programme des Sondes à la Chartreuse — Centre National des Écritures du Spectacle (2009-2012). Dans le même temps, il a enseigné la création théâtrale ainsi que les cultures numériques à l’Université d’Avignon. Il enseigne les arts et les cultures numériques aux Beaux-Arts de Paris. Emmanuel Guez est actuellement chargé de la recherche et des projets à l’École Supérieure d’Art d’Avignon. Il y dirige notamment le programme PAMAL (Preservation and Archaeology of Media Art Lab). http://writingmachines.org (théories et critiques) / http://emmanuelguez.info (art et expérimentations).

(1) Mary Carruthers, Le livre de la mémoire. La mémoire dans la culture médiévale, Macula, 2002.

(2) Jeremy Rifkin, L’âge de l’accès, La nouvelle culture du capitalisme, La Découverte, 2000.

(3) http://cogprints.org/499/1/turing.html

(4) Fred Turner, Aux sources de l’utopie numérique, De la contre-culture à la cyberculture, Steward Brand, un homme d’influence, C&D éditions, 2012.

(5) Pierre Lévy, L’intelligence collective : pour une anthropologie du cyberespace, La Découverte, 1994.

(6) Jean-François Lyotard, La Condition postmoderne, Éditions de Minuit, 1979.

(7) Hakim Bey, TAZ, Zone Autonome Temporaire (1991), Éditions de l’Éclat, 1997.

(8) Dominique Lestel, L’animal est l’avenir de l’homme, Fayard, 2010.

(9) Friedrich Kittler, Aufschreibesysteme 1800/1900, Wilhelm Fink Verlag, 1985.

(10) Donna Haraway, Des singes, des cyborgs et des femmes, Actes Sud, 2009.

(11) Douglas Coupland, « Transience is now permanence », in John Brockman, How is the Internet changing the way you think ?, Atlantic Books, 2012.

(12) Jean-Marie Schaeffer, Pourquoi la Fiction ?, Seuil, 1999.

(13) Cf. le Rapport du Sénat de Yves Détraigne et Marie Escoffier, La vie privée à l’heure des mémoires numériques (mai 2009), proposant un droit à l’hétéronymat. Les auteurs s’appuient sur les travaux du programme « Identités actives » de la FING. Voir aussi : hwww.internetactu.net/2009/07/15/lhomonyme-dheteronyme/ (juillet 2009) par D. Kaplan (délégué général de la FING).

(14) www.laquadrature.net/fr/lpm-promulguee-la-derive-du-politique-vers-la-surveillance-generalisee

(15) Matthew Fuller, cité par Geert Lovink, in Networks without a cause, Polity, 2011.

(16) Lifor Shifman, Memes in Digital Culture, The MIT Press, 2014.

(17) www.lemonde.fr/technologies/article/2012/03/16/l-anonymat-proscrit-des-reseaux-sociaux-a-pekin_1670819_651865.html

(18) www.lemonde.fr/technologies/article/2012/08/27/la-coree-revient-sur-un-dispositif-requerant-l-identification-des-internautes_1751758_651865.html

(19) Cf. notamment la déclaration d’Eric Schmidt, le PDG de Google, le 4 août 2010 : Si je regarde suffisamment vos messages et votre localisation, et que j’utilise une intelligence artificielle, je peux prévoir où vous allez vous rendre. Montrez-nous 14 photos de vous et nous pourrons vous identifier. Vous pensez qu’il n’y a pas quatorze photos différentes de vous sur Internet ? Il y en a plein sur Facebook ! (…) La seule manière de gérer ce problème est une vraie transparence, et la fin de l’anonymat. Dans un monde où les menaces sont asynchrones, il est trop dangereux qu’on ne puisse pas vous identifier d’une manière ou d’une autre. Nous avons besoin d’un service d’identification personnel. Les gouvernements le demanderont.

quels enjeux pour l’éducation du citoyen ?

Qu’il s’agisse d’utiliser un GPS pour conduire son véhicule, de consulter un globe virtuel pour préparer ses prochaines vacances sur Internet ou encore de chercher de l’information selon sa mobilité avec un téléphone portable, nous pouvons constater que les outils numériques ont envahi notre vie quotidienne avec leurs lots de cartes, de plans et de traces numériques localisés. Explorant depuis une quinzaine d’années, comme enseignant puis comme formateur et chercheur, les nouveaux chemins de la cartographie numérique, nous proposons de présenter quelques-uns des enjeux majeurs de la révolution géonumérique que nous vivons actuellement.

Révolution géonumérique, de quoi parle-t-on ?
Comme le souligne H. Desbois nous sommes en train d’amorcer une transition géonumérique sans précédent qui tend à révolutionner la nature des cartes et leur place dans la vie quotidienne (1). En devenant numériques, les images cartographiques se sont démultipliées et transformées ; elles relèvent de plus en plus en plus de traitements complexes réalisés à partir de banques d’informations géonumériques. Sur son blog Monde géonumérique, Thierry Joliveau définit la géonumérisation comme le processus de transcription au moyen d’outils informatiques des objets, êtres, phénomènes, activités, images, textes localisés sur la surface terrestre (2). Les informations géolocalisées à notre disposition ont littéralement explosé avec la mise en place du « géoweb » défini comme la convergence des grands moteurs de recherche et des outils de cartographie numérique sur Internet.

On estime que 80% des informations existant dans le monde ont une base géographique, ce que l’entreprise Google a bien compris en proposant dès 2005 un outil de géolocalisation et de navigation cartographique, Google Earth. Depuis cette date, les évolutions techniques ont été nombreuses, qu’il s’agisse des outils de création et de partage de bases de données cartographiques pour des spécialistes ou des applications géolocalisées pour le grand public. En France, le Géoportail (3) s’est imposé comme le « portail d’information des territoires et des citoyens ». Ce site français de cartographie en ligne permet de consulter gratuitement les bases de données cartographiques de l’IGN (Institut Géographique National) ainsi que d’autres données produites par les collectivités locales, sur l’occupation du sol, les risques naturels et technologiques, le bâti, les cartes anciennes… Comme dans Google Maps ou dans Google Earth, on peut aussi y ajouter ses propres informations géolocalisées.

Pour le géographe comme pour le simple utilisateur, il est devenu possible de « géotagger » les images cartographiques issues de ces globes virtuels en ajoutant des commentaires sur ses paysages préférés aussi bien que sur des restaurants ou des lieux touristiques que l’on souhaite recommander à d’autres utilisateurs. Nos plans et nos cartes géographiques, longtemps réduites à deux dimensions, deviennent des espaces en trois dimensions où nous pouvons nous déplacer comme par exemple dans Google Maps avec son outil d’exploration visuelle en immersion, Street View. Avant même de découvrir l’espace réel, nous le parcourons, nous l’explorons et nous le disséquons sous différents angles. Nous utilisons ces « territoires virtuels » pour construire et mettre en forme nos représentations spatiales de sorte que l’on ne découvre que très rarement un espace réel pour la première fois. Ces bouleversements n’affectent pas seulement la façon de construire les cartes que nous pouvons désormais modifier, adapter, transformer par nous-mêmes. Ils touchent également à la manière de lire et de concevoir l’espace.

Avec le GPS et toutes les informations géolocalisées dont on dispose aujourd’hui, on est en train de construire un nouveau rapport à l’espace. En fait c’est l’utilisateur qui crée la carte. On sort de la carte pré-construite, de l’atlas ou du manuel. Sur l’ordinateur, l’utilisateur élabore ses propres cartes en choisissant le type de couches, le degré de zoom, l’angle de vue, la hauteur du relief, le rendu des formes et des couleurs. Il peut même superposer ses propres informations en important d’autres cartes ou d’autres images qu’il a lui-même saisies. Internet nous donne la possibilité d’explorer l’espace à l’aide de globes virtuels qui fonctionnent comme des sortes de doublons numériques de la Terre.

Prenons l’exemple de l’application Google Earth qui donne à voir la Terre vue d’en haut. Par des effets de zooms et de déplacements successifs, ce logiciel d’exploration géographique à partir d’images aériennes en haute résolution et en trois dimensions nous conduit à naviguer « dans » et non plus seulement « sur » la carte. On peut s’interroger sur le statut de ces images cartographiques qui donnent à voir la Terre quasiment « en direct » sans réelle possibilité d’interroger la source et l’origine de l’information géographique. On peut nourrir le même type d’inquiétudes face au risque de surveillance généralisée par les techniques de géolocalisation. Lire et construire des cartes et plus généralement manipuler de l’information géographique constituent de plus en plus un enjeu citoyen.

Cartographier : un enjeu citoyen
Avec l’essor rapide de la géomatique et des technologies de l’information géographique, on observe un regain de réflexion sur la carte et sur ses usages sociaux. La carte est aujourd’hui du côté des citoyens qui peuvent en discuter le point de vue. Qu’il s’agisse par exemple de consulter les riverains concernés par un projet autoroutier ou d’associer les habitants d’un quartier urbain à la gestion de leur environnement, la carte constitue un puissant outil de persuasion, mais aussi un espace de participation, de controverse, en tout cas de débat pour les citoyens. Ces derniers deviennent eux-mêmes des observateurs privilégiés d’une réalité locale et, de plus en plus, des créateurs d’informations.

Le pouvoir de création d’informations géographiques a basculé entre les mains d’individus qui ne sont pas des experts en cartographie. On peut mentionner par exemple des projets collaboratifs comme Wikimapia ou OpenStreetMap (4), qui sont des exemples de réalisations mises sur pied par des communautés d’utilisateurs. Dans certains pays, en particulier aux États-Unis, la mise en place de PPGIS (Public Participation Geographic Information System) témoigne du besoin de certaines communautés de citoyens de collecter l’information par le bas et de prendre part activement au débat public au travers de SIG participatifs. Ces projets de cartographie collaborative donnent aussi des idées aux artistes et aux aménageurs qui proposent des découvertes interactives d’espaces urbains, par exemple à partir de parcours sonores géolocalisés. Il s’agit de s’immerger dans des paysages sonores, de développer une approche sensible de la ville en reconstituant les traces du quotidien (5).

L’accès partagé à l’information géographique semble ouvrir la voie à une « géographie volontaire », où chaque citoyen est potentiellement capteur de données. D’aucuns y voient le triomphe d’une géographie centrée sur les représentations de l’individu du fait que chacun est désormais en mesure de produire et de modeler sa propre information géographique. D’autres au contraire insistent sur le partage et la mutualisation de ces informations sur des sites web collaboratifs. L’émergence d’un Internet participatif du type web 2.0 n’est pas sans susciter des débats autour d’une « néo-géographie ». Sans déboucher forcément sur la naissance d’une « nouvelle géographie », les outils du géographe commencent à se renouveler du fait de la création et du partage de l’information géographique sur le web. Qu’il s’agisse des Systèmes d’Information Géographique (SIG) ou des globes virtuels sur Internet, il semble que la cartographie numérique soit bel et bien devenue un enjeu civique.

Éduquer à la carte et à l’information sur support numérique
Les technologies de l’information géographique ont commencé à franchir le seuil de la classe (6). L’usage des outils de cartographie numérique commence à se banaliser et n’est plus seulement le fait d’enseignants innovants. L’objectif n’est pas tant de former des « citoyens-cartographes » que d’envisager tout le potentiel cognitif des technologies de l’information géographique : la carte doit être véritablement envisagée comme un outil d’investigation dans toute sa dimension heuristique. Le principal enjeu réside dans la visualisation et le traitement de l’information géographique numérique. Nous sommes en effet entrés dans un nouveau paradigme pour la cartographie, celui de la visualisation d’images numériques.

L’irruption massive de ces « cartes-images » n’est pas sans poser de nombreuses questions au géographe. Dans leur toute-puissance de saturation de l’information visuelle multiforme, les outils géomatiques sont susceptibles d’accroître le sentiment d’un accès direct à la « réalité » du monde. Cette emprise est symbolique bien sûr, car la réalité est au-delà de l’image. Mais l’imagerie numérique des SIG et des globes virtuels n’est pas seulement là pour nous offrir une image-réplique ou un doublon numérique de la planète, elle nous plonge dans une réalité « virtuelle » qui donne sens au réel. C’est dans cette virtualité de l’image que l’on peut visualiser les conséquences d’hypothèses, explorer des solutions, mettre en visibilité nos idées.

L’image cartographique n’est pas seulement un mode de représentation du réel, c’est aussi un mode de traitement permettant d’opérer à différents niveaux sur ce réel. En manipulant l’image, en croisant les couches d’information cartographiques, l’utilisateur a accès à différentes facettes d’un espace qui reste malgré tout insaisissable. Peu importe donc que l’usage des globes virtuels fonctionne avant tout sur des formes de pensée inductive, laissant de côté les possibilités de traitement de l’information offerts par les SIG. L’essentiel est que la carte puisse fonctionner comme un instrument de pensée. C’est globalement la question de la construction des savoirs géographiques par la carte, du passage de la représentation graphique aux représentations cognitives. Ce qui conduit à renouveler les pratiques autour de la carte considérée comme instrument de cognition spatiale. Cela nécessite une éducation à la carte, qui passe aujourd’hui nécessairement par une éducation à l’image et à l’information numériques. C’est pourquoi il semble indispensable de relier les compétences cartographiques à l’acquisition de compétences numériques telles que la maîtrise de l’information sur Internet ou le traitement de l’image à travers des outils de cartographie numérique.

La question est de savoir si on souhaite vraiment aller vers une éducation aux usages géonumériques. Actuellement les disciplines sont piégées par le poids de la tradition scolaire. Le téléphone mobile, par exemple, reste strictement interdit au sein des établissements scolaires. Ce qui se comprend notamment pour des raisons de dérives dans l’usage des réseaux sociaux. Face à l’inertie des programmes scolaires, on commence tout juste à introduire les outils géomatiques à l’école. Alors que les élèves utilisent déjà dans leur quotidien ces nouvelles technologies, l’école reste en décalage par rapport à la société.

Aux États-Unis, en revanche, les enseignants se servent de jeux de géolocalisation dans leur pédagogie, comme le geocaching. Cette chasse au trésor numérique en équipes permet d’appréhender l’espace via un parcours ludique et se fait sur le terrain grâce à un GPS et à un téléphone portable avec des outils de cartographie embarquée. Ces jeux géolocalisés commencent à arriver en France avec de nouvelles applications. La géographie scolaire évolue. Avec les QR codes, ces flash codes que l’on scanne dans la ville, d’autres pistes d’utilisation se dessinent du type réalité mixte. Les villes ou les musées s’en servent de plus en plus pour envoyer des informations le long d’un parcours citadin ou dans la découverte d’une exposition. Et les implications éducatives et culturelles sont énormes. Nous ne sommes qu’au début de cette révolution géonumérique…

Les outils géomatiques constituent de nouveaux outils pertinents d’intelligibilité du monde et se prêtent à différentes formes d’apprentissage. Il est nécessaire d’éduquer les élèves aux médias, au droit à l’image, qu’ils acquièrent un regard critique sur ces informations accessibles par tous, aux réseaux sociaux de communication. Il faut également avoir du recul face à la carte. Il est possible par exemple de géolocaliser ses « amis », parfois à leur insu. La question du comment l’école se positionne face aux dérives potentielles est cruciale. Il est important de réfléchir à l’éducation aux usages géonumériques si l’on veut former le citoyen au monde numérique dans lequel nous sommes entrés de plain-pied.

Sylvain Genevois
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Sylvain Genevois est docteur en géographie et en sciences de l’éducation et enseignant-chercheur à l’université de Cergy-Pontoise. Ses recherches portent notamment sur le changement des pratiques cartographiques et le renouvellement de l’enseignement de la géographie, en lien avec les usages sociaux des outils de cartographie numérique (SIG, globes virtuels, outils de localisation de type GPS et jeux géolocalisés). Membre du Comité français de cartographie (commission enseignement) et co-fondateur de l’Observatoire de pratiques géomatiques de l’Institut français de l’Education, il a publié de nombreux articles sur l’usage des outils de cartographie numérique en contexte scolaire.

(1) Henri Desbois, « La transition géonumérique », http://barthes.ens.fr/articles/Desbois-colloque-ENSSIB-Goody-2008.pdf

(2) Blog Monde Géonumérique, http://mondegeonumerique.wordpress.com/

(3) Géoportail : www.geoportail.gouv.fr

(4) Dans Wikimapia, l’utilisateur peut construire ses cartes personnalisées à partir de différentes applications (Google Maps, Bing Maps, Yahoo, etc.) : http://wikimapia.org OpenStreetMap, base de données cartographiques libre du monde : www.openstreetmap.org/

(5) « Cartes sonore et dérivés. Représentations de la chose sonore ». http://desartsonnants.over-blog.com/cartes-sonores-et-d%C3%89riv%C3%89s-repr%C3%89sentations-de-la-chose-sonore

(6) Genevois S. (2008). Quand la géomatique rentre en classe. Usages cartographiques et nouvelle éducation géographique dans l’enseignement secondaire. Thèse de doctorat http://tel.archives-ouvertes.fr/tel-00349413/fr/

 

la création à l’ère d’Internet

Les œuvres d’art numériques – prises comme objet de recherche – constituent un territoire privilégié pour l’analyse conjointe des innovations artistiques et des actions médiatiques contemporaines. L’acte créateur et l’expérience médiatique y sont distribués entre artistes, interfaces numériques, publics et internautes amateurs.

Cet article propose de questionner ce régime « Poïétique » du Net art et d’en éclairer les figures et métamorphoses contemporaines à partir de la relecture d’une œuvre archétypale : le Générateur Poïétique développé depuis le milieu des années 1990 par l’artiste français Olivier Auber. Quelles sont les incidences de la numérisation de l’expérience esthétique ? Quelles nouvelles habiletés des internautes y sont requises ? Permettent-elles une contribution plus active à l’instauration des œuvres ? Comment le régime du « faire faire » propre au Net art s’articule-t-il à une « poïétique » du côté du public ?

Le terme « Poïesis » est chargé d’une longue histoire, au cours de laquelle il fait l’objet de multiples redéfinitions et usages — conceptuels autant que pragmatiques — qui l’ancrent dans divers contextes disciplinaires et écoles de pensée. Il est presque impossible, tant la tâche paraît démesurée, de retracer précisément toutes les variations de signification résultant de ce phénomène que Stengers (1987) a baptisé le « nomadisme des concepts ». Au fil de ses (ré)appropriations successives, cette notion va en effet recevoir des significations largement contradictoires. Pourtant, malgré de lourdes transformations, ce terme demeure incontournable pour la compréhension de l’art numérique tant il est réutilisé par les artistes pour informer leur pratique.

Poïésis et mondes de l’art
Ses origines étymologiques grecques confèrent au terme de Poïésis le sens premier de « création » ou de « production », du verbe « poiein » (faire) qui recouvre des acceptions différentes — voire contradictoires — au sein des écrits philosophiques. La philosophie a en effet principalement insisté sur la différence entre la praxis et la poïésis, y voyant deux formes d’action humaine fondamentalement distinctes : alors que dans la poïésis la finalité de l’œuvre technique est une œuvre indépendante de l’action, la finalité de la praxis se trouve dans l’acte lui-même, l’effet ne s’y distinguant pas de la cause qui le produit.

Dans cette perspective, si la bipartition aristotélicienne ne commet pas encore de distinction entre art et travail, elle clive néanmoins déjà différents genres d’activités et de connaissances humaines. La distinction porte simultanément, 1, sur les choses propres au sujet, soit les « actions » et la connaissance « pratique » (au sens de Kant) — ce niveau définit la Praxis en tant que dispositions à agir accompagnées de règles, impliquant de savoir modifier son comportement —; et 2, sur les choses extérieures au sujet, soit les « objets » et la connaissance « poïétique » — ce niveau définit la Poïésis en tant que disposition à produire, accompagnée de règles recouvrant simultanément le travail, l’artisanat et l’art.

Ce deuxième terme (poïétique), définit chez Aristote le mode de fabrication comme activité ou connaissance menant à l’existence de choses extérieures au sujet. Dès lors, la praxis (action au sens strict) correspond aux actes (politiques ou moraux) valant par eux-mêmes, là où la poïésis (création) correspond au travail compris comme la production d’un bien ou d’un service qui porte par lui-même de la valeur (1). Kant montrera bientôt que l’art, qu’il définit comme un mélange de travail et de jeu, se distingue du travail de l’artisan (2). Plus tard Hannah Arendt (3) divisera à son tour l’activité productive entre œuvre (poïésis) et travail (praxis) : ici, comme chez Aristote, la poïétique se distingue de la praxis par la fin de l’action ou de l’acte qu’elle présuppose.

Selon cette visée (4), la finalité de la poïétique est extérieure à celui qui fabrique, comme à son action, et la fin de la production est alors séparable du producteur. Pour la praxis au contraire, la finalité est interne à l’action dont elle ne peut être séparée, le fait de bien agir étant ici le but même de l’action. Selon cette conception, sur laquelle nous reviendrons, ce qui spécifie l’œuvre vis-à-vis du travail est que celle-ci est tout entière tendue vers une fin : elle est la réalisation d’une activité productive intentionnelle et signifiante, là où le travail n’est qu’action et répétition d’une tâche récursive sans visée de clôture. Aux choses incessamment (re)fabriquées par le travail s’opposent ainsi les Œuvres, au sens strict du terme, comme le produit ou le résultat d’un acte intentionnel inscrit de ce fait dans le domaine de la poïésis. Dit autrement, le travail n’a pour but que d’assurer la satisfaction des besoins sans cesse renaissants, à l’inverse de l’action, qui n’est liée à aucune nécessité biologique ou sociale, et qui donc, n’est point soumise à des impératifs vitaux.

Mais la richesse de l’analyse aristotélicienne résulte principalement de sa tentative de liaison entre science et action : on y trouve en effet plus que de simples dichotomies binaires entre praxis et logos, entre praxis et theoria, entre prattein et poein ou entre praxis et poïesis. Le terme de poïésis introduit ainsi une première acception de l’idée de processus, puisqu’en mettant l’accent sur la production artistique comme œuvre, il souligne et caractérise également « l’acte » lui-même et montre et souligne de ce fait le « travail artistique ». L’acte de production y est intentionnellement et à priori dirigé vers la création d’une œuvre valant par et pour elle même qui, qu’elle soit ou non objectale, apparaît de ce fait comme l’aboutissement de l’acte. Or selon nous, ce postulat de clôture de l’œuvre mérite lui-même d’être reconsidéré. Car avant même qu’il ne soit question d’interactivité ou de participation à l’œuvre de la part du public — éléments qui caractériseront de nombreuses installations en art contemporain, qui vont trouver une radicalisation quasi principielle par la fréquentation des dispositifs du Net art —, les notions d’autonomie et d’étirement temporel de l’œuvre viennent relativiser ces premières propositions.

Poïésis ou partage de la génération artistique
Le Générateur Poïétique d’Olivier Auber (5) présente une figure idéaltypique de ce rapport aux œuvres d’art orchestré par un dispositif élaboré de captation du public. Inspiré du « jeu de la vie » de Conway (1976) le Générateur Poïétique permet à un grand nombre de personnes d’interagir individuellement en temps réel sur une seule et même image collective. Il s’agit en effet d’un jeu graphique où chaque joueur qui se connecte dispose d’un petit carré juxtaposé à celui des autres joueurs. En plaçant ses pixels colorés dans l’espace qui lui est alloué, en les juxtaposant à ceux des joueurs connexes ou en faisant écho au dessin des autres joueurs, chacun contribue à la réalisation d’un dessin collectif qui est constamment en évolution.

La participation à cette expérimentation collective en temps réel est orchestrée par un contrat très contraignant, nécessitant de la part des internautes une disponibilité et une implication importante. L’annonce de l’événement se fait par E-mail et engage une prise de rendez-vous ponctuel visant à partager dans le temps et dans l’espace la réalisation d’une image collective. Le Générateur Poïétique permet ainsi à plusieurs individus de se connecter à un moment donné sur un site, dont le lieu et l’heure du rendez-vous avaient été préalablement fixés par courrier électronique. Chaque participant doit avoir, suivant les recommandations préalables de l’artiste, procédé au téléchargement, à l’installation et apprentissage d’un logiciel de dessin bitmap. Respectant l’heure du rendez-vous soigneusement consigné dans son agenda, l’internaute est invité à rejoindre d’autres participants anonymes dans l’objectif d’un dialogue interfacé.

Le résultat est ici le processus de communication lui-même, à travers l’action collective de composer une image. Autrement dit, l’action de chacun, visible simultanément par l’ensemble des participants, y détermine l’état de l’image à un instant donné, comme résultat de l’action de tous. Le Générateur Poïétique laisse ainsi entrevoir deux mouvements dont le titre même indique très bien la voie : 1, l’œuvre se trouve moins dans l’image que dans le dispositif qui l’a fait exister; 2, le processus collectif importe ici bien plus que le résultat. Il y a bien un générateur qui renvoie au dispositif de création au sens pragmatique du terme dont nous avons préalablement restitué le caractère polysémique. Mais ce générateur est poïétique, dans le sens où aménage bien une action artistique nouvellement partagée avec le public. C’est donc à l’articulation pragmatique de ces deux notions — dispositifs et poïésis — qu’invite l’artiste Olivier Auber.

À cet égard, le terme de poïésis est lui-même augmenté d’une perspective dynamique, visant à rendre compte de l’histoire, ou du devenir — au sens de la genèse —, de l’œuvre d’art. Mêlée au souci de saisir l’activité plutôt que l’objet lui-même, cette nouvelle injonction ne manque pas de souligner le caractère processuel de l’œuvre : ses investissements et changements successifs, engageants des objets et des humains au cours de la pratique. Le quatrième chapitre de la sixième partie de l’Éthique à Nicomaque d’Aristote, décrivait déjà ainsi l’historicité des choses poétiques : les choses qui peuvent être autres qu’elles ne sont comprennent à la fois les choses qu’on fait et les actions qu’on accomplit.

Ce qui, autrement dit, vise à (Ré)introduire au cœur de la pratique artistique le contingent « devenir » de l’œuvre. Dès lors, si la disposition artistique à produire concerne toujours un devenir : s’appliquer à un art, c’est considérer la façon d’amener à l’existence une de ces choses qui sont susceptibles d’être ou de ne pas être, mais dont le principe d’existence réside dans l’artiste (le facteur) et non dans la chose produite. L’art en effet ne concerne ni les choses qui existent ou deviennent nécessairement, ni non plus les êtres naturels, qui ont en eux-mêmes leur principe. Ce double attachement au devenir de l’œuvre ainsi qu’à l’activité dans lequel il s’origine est alors ce qui fait la spécificité de la Poïésis : un accident de la nature produit par l’homme. Mais si ce modèle réintroduit bien une certaine dynamique de l’activité artistique, il se déplace sans doute trop hâtivement de l’œuvre vers son producteur, sur lequel est désormais focalisée l’attention analytique. Néanmoins, cette analyse présente pour nous l’intérêt de déplacer la causalité du phénomène « œuvre d’art », d’une causalité naturelle vers une causalité technique ou culturelle, et simultanément, elle permet d’analyser la multiplicité des rapports à l’œuvre rapportés aux différents temps de sa réalisation.

D’une portée heuristique analogue, la relecture des travaux de Paul Valéry paraît offrir, en regard de la vision « contextualisée » et instrumentale qu’ils promeuvent, des éléments de compréhension de la pratique poïétique immédiatement transposables aux contextes médiatiques contemporains. À travers ses Cahiers notamment, Paul Valéry apparaît rétroactivement comme le penseur d’un certain pragmatisme. La science expérimentale de Paul Valéry (1871-1945) promeut ainsi une Poïésis (6) « en projet », un « esprit de laboratoire » qui sous-tend : d’une part, l’étude de l’invention et de la composition, le rôle du hasard, celui de la réflexion, celui de l’imitation, celui de la culture et du milieu ; d’autre part, l’examen et l’analyse des techniques, procédés, instruments, matériaux, moyens et supports d’action (1937).

À l’écart des qualifications du génie artistique et de l’art comme œuvre « d’inspiration » — qui réifient la conception de l’objet-œuvre ontologique, rendu par là même hermétique à toute investigation analytique — Valéry suggère d’appeler poïétique la science (à venir) des processus de création. Ainsi focalisée sur les coulisses de l’œuvre, l’analyse de la créativité montre alors le travail artistique en situation, c’est-à-dire les moyens et modalités de l’action artistique et de la mise en œuvre d’art. L’accent est porté sur les activités humaines, aux prises avec des techniques et des objets dans le but de faire œuvre d’art : tout est en présence, tout en échanges mutuels et modifications réciproques (…) une intelligence qui organise un savoir en s’organisant elle-même (7). Inaugurant de la sorte une (pré)science de la transformation et de la variation, ces recherches engagent une combinatoire de pensée et d’action où la méthode fait successivement appel à des modèles empruntés aux mathématiques — envisagée désormais comme une science des relations (la topologie, les groupes, la probabilité) —, ainsi qu’à la physique (la thermodynamique, l’électromagnétisme et plus tard, la relativité).

Pré-sciences constructivistes dans le sillon desquelles on peut lire une anticipation des modes relationnels du Net art, où : le système observant se construit en permanence dans et par l’interaction du sujet observateur-modélisateur et du phénomène observé et donc expérimenté (Le Moigne, 1994) (8). En substituant ainsi au postulat d’objectivité, un postulat de projectivité. Ce déplacement analytique reconduit un « art de penser » qui n’est pas celui de la logique déductive qui ne produit qu’une sorte de « reconnaissance platonicienne », mais celui qu’exprime l’exercice de « la découverte dans le construire », de la raison s’exerçant à transformer, à distinguer et à évaluer (…), cette démarche visant à rendre compte d’une activité de conception selon laquelle la pensée du moyen pour construire devient le moyen de penser (Signorile, 1999).

Ce constructivisme valeyrien est ainsi rattaché aux (dites) « nouvelles sciences » de l’action et de la cognition, dont le dessein consiste à saisir la complexité des activités de connaissance et de création. Aujourd’hui, de nouveaux courants de recherches font usage de ce texte, parmi lesquels on trouve entre autres tout un pan de la biologie contemporaine et des sciences cognitives : un système autopoïétique est organisé comme un réseau de processus de production de composants qui (a), régénèrent continuellement par leurs transformations et leurs interactions le réseau qui les a produits, et qui (b), constituent le système en tant qu’unité concrète dans l’espace où il existe, en spécifiant le système topologique où il se réalise comme réseau (9).

Poïésis et numérisation de l’expérience esthétique
Le concept touche également tout un pan des sciences humaines, dont la sociologie de l’action et des innovations où il assigne à l’analyse de la pratique artistique une dimension pragmatique. La poïétique peut trouver une résonance dans cette volonté croissante de compréhension de la « pratique » artistique ou du travail artistique. À condition d’éviter l’écueil de la dissymétrie analytique dont sont empreintes de nombreuses études de sociologie de l’art : entre d’une part, l’examen des conditions sociales de production et de réception du fait artistique, et de l’autre, l’étude d’une esthétique de l’œuvre ontologique (10).

À l’instar aujourd’hui de nombreux sociologues de l’art qui ont souligné ce double écueil consistant à chercher les causes du phénomène esthétique dans ses conditions sociales externes (les déterminismes sociaux), ou dans l’œuvre « en elle-même ». Ce que recouvre la double interprétation controversée de l’art comme reflet du social (approche externaliste) ou de l’art comme révélateur du social (approche internaliste). Dès lors, à l’écart des points de vue herméneutiques ou esthétiques (11), la Poïétique du Net art doit être attentive aux déplacements que cette pratique de conception partagée entre artistes et informaticiens, dispositifs techniques et publics, promeut notamment quant à la localisation de l’œuvre (sa dis-location). Les modalités de sa désignation et de ses appropriations, cadrées tout à la fois par le contexte et la situation de production, sont sans cesse (re)ajustées dans le cours de l’action.

Couplée au contexte de production du Net art, la poïétique semble davantage cet « entre-deux » qui, du fait de son manque à caractériser une fois pour toute l’œuvre, l’artiste et le public, suivant des rôles et des positions à priori, permet de concentrer l’examen sur la circulation des uns vers les autres. En ce sens, il s’agit bien davantage ici d’usages — ou de pratiques (12) — inscrits dans et autour des « objets artistiques » dont il peut être parfois difficile de dire à priori s’ils sont l’œuvre, sans examiner comment (où et pour qui) ils font faire l’œuvre. La poïésis n’apparaît pas ici strictement séparée de l’action, elle en déploie au contraire les possibles en créant un espace d’opération (ou d’expérimentation) qui conduit à ce qu’une chose (un objet, une image, un mot) ne soit jamais donnée pour ce qu’elle est (isolément), mais pour ce qu’elle peut être (dans une relation).

L’entre-deux du dispositif poïétique réintroduit en effet une certaine plasticité entre l’idée d’une structure ou d’un ordre homogène et l’approche réticulaire mettant en évidence le flux généralisé des ensembles complexes ouverts, plus proches de l’indifférencié ou du chaos. Et par conséquent, le dispositif poïétique oscille entre l’idéalisation d’une production esthétique délimitée, attribuable à un auteur singulier, porteuse de sa facture et de sa sensibilité individuelle, et le produit des usages qu’elle génère, résultant de ses appropriations et expérimentations par autrui. Ces dernières pouvant travestir et altérer considérablement la forme et les significations initialement déposées par l’artiste.

Le mouvement pragmatique montre ainsi que l’objet œuvre n’est pas une entité pleine des intentions de son auteur qu’elle ne ferait que traduire, et son destinataire n’est plus le récepteur vide et passif de ses effets préfigurés qu’il ne ferait qu’épouser pour mieux en contempler l’équilibre (13). À l’opposé, ce n’est pas plus le regardeur qui fait l’œuvre, envisagée comme une entité organique disposée par un créateur démiurge et désintéressé. Ces deux acceptions sont des visions idéalisées, qui ne peuvent surgir qu’a posteriori et qui ignorent les multiples activités et ajustements qui concourent à la construction collective d’une stabilité toujours éphémère des énoncés et des formes. Créer au sein d’un langage constitué cet « espace d’interprétation » revient en effet à faire œuvre de poïétique : en délogeant les formes de leur « résidence » habituelle pour les entraîner dans un ailleurs, un au-dehors expérientiel de l’œuvre.

Jean-Paul Fourmentraux
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Jean-Paul Fourmentraux est docteur en Sociologie. Maître de Conférences. Habilité à diriger des recherches (HDR) à l’Université de Lille (laboratoire Geriico) et à l’École des Hautes Études en Sciences Sociales de Paris. Il est l’auteur des ouvrages : Art et Internet, CNRS Éditions, Paris, 2010 –, Artistes de laboratoires, Hermann, Paris, 2011–, Art et Science (dir.), CNRS éditions, Paris, 2012–, L’Ère post-media, Hermann, Paris, 2012–, L’œuvre commune, affaire d’art et de citoyen, Les Presses du réel, Dijon, 2013–, L’œuvre virale, La Lettre Volée, Bruxelles, 2013.

(1) Autrement dit, selon Aristote la poïésis est (1) « action de faire » en fonction d’un savoir, et (2) production d’un objet artificiel, posé en dehors : une œuvre.

(2) L’art se distingue aussi de l’artisanat; l’art est dit libéral, l’artisanat peut également être appelé art mercantile. On considère le premier comme s’il ne pouvait être orienté par rapport à une fin (réussir à l’être) qu’à condition d’être un jeu, i.e. une activité agréable en soi; le second comme un travail, i.e. comme une activité en soi désagréable (pénible), attirante par ses seuls effets (par exemple, le salaire), qui donc peut être imposée de manière contraignante. Kant, Critique de la Faculté de Juger, Folio Essais, p.43

(3) Arendt, H., La condition de l’homme moderne, Presses Pocket. 1983.

(4) On peut lire chez un nombre important d’auteurs — Kant, Montaigne, Rousseau — les conséquences de cette distinction fondamentale entre la praxis (action productrice, plus ou moins aliénante) et la poïésis (expression de soi, plus ou moins pure et libre). La poïésis — qui a donné son nom à la poésie — qualifiant ici l’activité libre (et créative) de l’être humain qui n’est pas subordonnée aux contraintes de la subsistance.

(5) Olivier Auber, Générateur Poïétique, http://poietic-generator.net; Olivier Auber, « Du générateur poïétique à la perspective numérique », Revue d’esthétique 39, 2001; Anne Cauquelin, Fréquenter les incorporels. Contribution à une théorie de l’art contemporain, (p.107), Paris, PUF, 2006.

(6) Cf. Patricia Signorile, Episteme et Poïésis, en projet… : ou l’esprit de laboratoire dans les Cahiers de Paul Valéry, In Rencontres MCX, « Pragmatique et complexité », 17 et 18 juin 1999. > www.mcxapc.org/ateliers/21/doc8.htm. Voir également, Patricia Signorile, Paul Valéry, philosophe de l’art, Vrin, 1993.

(7) Paul Valéry, Cahiers, éd. C.N.R.S., Vol. XIII, p. 273

(8) Cf. Jean-Louis Le Moigne, Le Constructivisme, tome I, Des fondements, ESF édition, 1994, pp. 122-123.

(9) Francisco J. Varela, Autonomie et connaissance : essai sur le vivant, Seuil, coll. La couleur des idées, Paris, 1989, p.45.

(10) De nombreux sociologues ont souligné, à la suite de Pierre Bourdieu (Les règles de l’art, 1992), la nécessité de dépasser ce double écueil de la « première » Sociologie de l’art, pour s’intéresser à l’acte artistique ou aux médiations de l’œuvre, et parfois (plus timidement) à l’œuvre « elle-même » : voir notamment Passeron, J.-C., « Le chassé-croisé des œuvres et de la sociologie », In Moulin. R., Sociologie de l’art, L’Harmattan, coll. Logiques Sociales, 1986. Hennion, A., La passion musicale : une sociologie de la médiation. Paris, Ed. Métailié, 1993. Péquignot, B. Pour une sociologie esthétique. Paris : Éditions L’Harmattan, 1993. Heinich, N. « Pourquoi la sociologie parle des œuvres d’art et comment elle pourrait en parler ». Sociologie de l’art, n°10, p.11-23, Éd. La lettre volée, 1997.

(11) Le terme d’Esthétique est inventé au 18ème, par Baumgarten, un disciple de Leibniz, d’après l’étymologie « aisthétikos » (qui peut être perçu par les sens); ce dernier visait à classer l’art ou les beaux-arts dans le domaine de la connaissance, en leur donnant une place intermédiaire entre la pure sensation (confuse, obscure) et le pur intellect (clair et distinct). Chez Kant, l’esthétique désigne la réflexion sur le beau et sur le goût; chez Hegel, il comprend la philosophie de l’art en général.

(12) Par exemple selon Jacquinot-Delaunay (1999), si les notions d’usage et de pratique sont souvent employées indifféremment cela ne devrait pas nous faire oublier que l’un est plus restrictif que l’autre : l’usage renvoie à la simple utilisation — fut-elle d’une machine complexe — tandis que la pratique intègre à cette dimension, les comportements, les attitudes et les représentations, voire les mythologies, suscités par l’emploi des techniques — dont la pratique Internet rend particulièrement bien compte à l’heure actuelle. Cf. Jacquinot-Delaunay, G., Monnoyer, L. (dir.). « Le dispositif. Entre usage et concept ». Hermès, n°25, p.10. Édition du CNRS, 1999.

(13) Cf. Hennion, A., Méadel, C., Les ouvriers du désir : du produit au consommateur, la médiation publicitaire, In Beaud, P., Flichy, P., Pasquier, D. et Quéré, L., (ed.), Sciences de la communication, pp.105-130. Paris, Réseaux-Cnet, 1997.

culture des fans et industrie médiatique

Un des enjeux actuels des sciences humaines et sociales est de saisir les changements sociaux et technologiques qui irriguent en permanence nos sociétés. Plusieurs sociologues s’intéressent à ces questions en réfléchissant sur la manière dont les sciences humaines peuvent penser les changements mis en œuvre par les sciences et les techniques, qui feraient que nous serions passés d’une société moderne à une société postmoderne. Comment les sciences humaines peuvent-elles supporter l’épreuve du changement ? Quel regard doivent-elles porter ? Comment penser la place et le rôle des individus dans des technologies et des médias qui se veulent être ou du moins apparaître comme participatifs ?

Depuis plusieurs années, avec la multiplication des supports médiatiques et numériques, les universitaires des Medias Studies mettent au cœur de leurs analyses la « culture fan ». Les travaux de l’américain Henry Jenkins en sont particulièrement représentatifs. Pensant les médias, les transmédias, leurs changements et leurs impacts dans la vie des individus, Jenkins propose au lecteur un cadre théorique permettant de comprendre les réseaux qui se créent entre les individus, les médias et l’industrie du divertissement. Il nomme ce cadre théorique la « culture de la convergence ».

En 2013, pour la première fois en France son ouvrage Convergence culture : where old and new media collide, est publié traduit aux éditions Armand Colin sous le titre : La culture de la convergence : des médias au transmédia. Intéressé par les flux médiatiques gravitant autour d’émissions télévisées (American Idol, Survivor aux États-Unis) ou encore des films cinématographiques (Matrix, Harry Potter, Star Wars), Jenkins s’intéresse au rôle de plus en plus grandissant et participatif des fans, mais aussi aux réactions et stratégies développées par les industries du divertissement pour accompagner et irriguer l’explosion d’une culture fan toujours plus participative et impliquée dans le déroulement et la prolongation des émissions et films.

Pour lui, la convergence est un mot qui permet de décrire les évolutions technologiques, industrielles, culturelles et sociales en fonction de qui parle et de ce dont les locuteurs croient parler (1). Il perçoit la convergence avant tout comme un changement culturel qu’il propose de conceptualiser à travers trois notions centrales : la convergence médiatique, la culture participative et l’intelligence collective. En plus de saisir les changements à l’œuvre dans les médias, la force conceptuelle de Jenkins est d’opérer un renversement du regard quant aux fans.

Ses travaux entérinent ce changement : celui de les considérer comme des individus actifs et producteurs. Il prolonge les essais philosophiques et sociologiques de Michel de Certeau qui consiste à voir dans les pratiques culturelles populaires des formes de résistance à la hiérarchie sociale et politique, et ici médiatique. Jenkins souligne bien les limites de cette résistance en le cantonnant à la sphère médiatique et non civique et politique. À l’heure du numérique, les fans des émissions de télé réalité ou de films utilisent dans leurs intérêts l’ensemble des technologies à leur disposition afin de nourrir et de partager leur passion. Tout autant que les industries médiatiques, les fans sont au cœur de la circulation des contenus médiatiques. Ce sont eux qui participent à la promotion et à la circulation d’univers complets (ce que Jenkins nomme le transmedia storytelling).

Cependant, il ne faut pas oublier le rôle dominant des industries de divertissement qui imposent les programmes, les utilisations médiatiques et cherchent à maîtriser les pratiques des fans afin de promouvoir leur chaîne, leur marque et développer leur profit financier. Il semble essentiel de rappeler que si la culture des fans est de plus en plus reconnue comme participative et intelligente, les sciences humaines et en particulier la sociologie ne doivent pas mettre de côté leur sens critique et montrer, tel que le fait Jenkins, que cette convergence culturelle est représentée malgré tout sous la forme d’une hiérarchie verticale.

Les entreprises médiatiques mobilisent de plus en plus une économie émotionnelle et affective qui ne doit pas faire oublier la société du spectacle dans laquelle nous vivons et qui semble être un élément résistant à l’épreuve du changement culturel, social et technologique. Le spectacle est le moment où la marchandise est parvenue à l’occupation totale de la vie sociale, notait Guy Debord dans La société du spectacle (2). Et à Jenkins de noter à la fin de son chapitre consacré à l’émission de télé crochet American Idol : le public a, de son côté, encore un long chemin à faire pour exploiter les points d’entrée qu’offre l’économie affective à l’action collective et à la critique du comportement des entreprises (3). Les Medias Studies offrent donc aujourd’hui une réflexion essentielle quant à la place et au poids des fans et de l’industrie médiatique.

Laure Ferrand
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Laure Ferrand est Docteur en sociologie, Université Paris 5, Laboratoire du CEAQ (Centre d’Étude sur l’Actuel et le Quotidien). Responsable du GREMES (Groupe de Recherche et d’Étude sur la Musique Et la Socialité). Chargée de cours à l’Université de Tours.

(1) Jenkins H., La culture de la convergence. Des médias au transmédia, Paris, Armand Colin, 2013, p.22.

(2) Debord G., La société du spectacle, Paris, Gallimard, 1967.

(3) Jenkins H., La culture de la convergence. Des médias au transmédia, Paris, Armand Colin, 2013, p.110.