télescopages numériques

Dans les années 90, les recherches menées par l’équipe du Cetcopra au moment de l’introduction des technologies numériques dans les avions de nouvelle génération (en particulier l’A.320), mais également dans les centres de contrôle aérien ou la maintenance des systèmes de sécurité aérienne, mettaient en évidence un certain nombre de phénomènes nouveaux (Gras & al. 1995). Nous avions notamment observé que l’informatisation des cockpits modifiait le mode de présence des pilotes à bord, leur représentation du vol, la définition même de leur métier et, de façon plus générale, les rapports au corps et aux sens. Je voudrais, à l’aune des développements les plus récents de ces technologies, revenir sur certains de ces questionnements. D’une part pour en montrer l’actualité, et ce malgré la banalisation du numérique et son extension à toutes les sphères de la société, d’autre part pour interroger cette persistance et tenter de lui donner un sens.

Numérique : retour sur image
Au sens littéral, le passage de l’analogique (mécanique) au numérique (et de l’échelle décimale à l’échelle binaire) se caractérise par la transformation d’un message en un code préétabli qui ne lui ressemble en rien et que seuls sont capables de déchiffrer les machines et ceux qui les programment (Triclot 2008, Mercier & al.1984). Ce seul fait représente une discontinuité majeure avec la phase analogique antérieure dans laquelle, par le biais des sensations et des retours d’effort, l’opérateur se trouvait de plain-pied par son corps dans la réalité qu’il avait à interpréter (Gras & Poirot-Delpech 1989).

À la fin des années soixante, Jean Baudrillard fut peut-être l’un des premiers à avoir anticipé le bouleversement introduit par ce nouveau rapport aux objets et au monde. En remplaçant l’adresse par l’action à distance (la télécommande) — que Baudrillard désignait après Pierre Naville (Naville 1963) par « gestuel de contrôle » — les nouveaux objets tendraient selon lui à instituer un type de naturalité inédit, à la fois englobant et abstrait. À la préhension des objets qui intéressait tout le corps — écrivait-il alors — se sont substitués le contact (main ou pied) et le contrôle (regard, parfois ouïe) (…) Tous les objets modernes se veulent d’abord maniables. Mais quelle est cette main en fonction de laquelle leurs formes se profilent ? Ce n’est plus du tout l’organe de préhension où aboutit l’effort, ce n’est plus que le signe abstrait de leur maniabilité (…) Le corps humain ne délègue plus que les signes de sa présence aux objets dont le fonctionnement est par ailleurs autonome. Il délègue ses extrémités. (…) L’outil, l’objet traditionnel n’épousait pas du tout les formes de l’homme : il en épousait l’effort et le geste. ( …) Aujourd’hui le corps de l’homme ne semble plus être là que comme raison abstraite de la forme accomplie de l’objet fonctionnel (1).

Ce découplage entre sens et connaissance, sens et signification est justement ce qui est apparu comme une difficulté majeure aux premiers usagers de ces technologies. Revenir aux questionnements de cette époque, ce n’est pas porter un regard nostalgique sur le passé, mais trouver dans ce passé des réponses aux difficultés présentes. Car même métabolisés, ou non verbalisés à l’intérieur d’un discours cohérent, les problèmes demeurent. L’attitude qui consiste, face à ces problèmes, à dénoncer la force de l’habitude, la résistance au changement, ou à invoquer l’argument de l’inévitable transition générationnelle (théorie des « Digital Natives » prétendument adaptés aux nouveaux environnements numériques) ressemble à un déni au service d’une fuite en avant technologique. Elle repose surtout sur une curieuse croyance; celle qui consiste à considérer que les êtres humains sont toujours en retard sur les progrès de la technologie, donc à accorder une forme d’extra-territorialité ou de transcendance à la technique.

Interprète ou surveillant ? Le cas de l’informatisation des cockpits
Pour illustrer le trouble occasionné par la rupture numérique, le terrain aéronautique, fer de lance et laboratoire vivant des technologies avancées, se présente ainsi comme un témoin privilégié. Tout l’intérêt des phases de transition — telle que celle qu’il nous a été donné d’observer — est de laisser apparaître, pendant un temps très court, les lignes de faille de mondes encore en gestation. Le cas de l’Airbus 320 mis en service à la fin des années 80 nous servira ici d’entrée. Parmi les innovations les plus marquantes de ces avions figurait le FMS (Flight Management System). Le FMS gère un grand nombre de paramètres à partir d’informations qu’il reçoit du sol (les contrôleurs, les balises électromagnétiques) ou de l’espace (données satellites). Il améliore la gestion de la trajectoire par un pointage permanent, est capable de corriger les dérives ainsi que les configurations de l’avion (pour avoir le moins de résistance au vent par exemple ou la meilleure assiette), gère la consommation de carburant de façon optimale…

Celui-ci fut d’abord présenté comme le prolongement du Pilote Automatique (PA), qui existait depuis l’entre-deux-guerres. Mais à la différence de l’automate classique, qui fonctionnait suivant une boucle de rétroaction simple, le nouvel automate n’exécutait pas seulement les directives du pilote (les données entrées par celui-ci avant chaque vol), il les interprétait sur la base d’algorithmes conçus par d’autres (Scardigli 2001). Au moment de son introduction, les pilotes en parlèrent ainsi comme du « troisième homme à bord » (désignant par là le groupe des ingénieurs). Mais un homme qui avançait pour ainsi dire masqué, les écrans n’affichant que les informations que la communauté des ingénieurs, selon des critères propres à leur culture de métier et aux paramétrages des vols d’essai, avait jugé utile de montrer aux opérateurs de première ligne. L’opacité des ordinateurs et des algorithmes, requalifiés à cette occasion de « boîtes noires », ne résistait pas seulement à l’usage (Akrich 1990), elle redéfinissait subrepticement celui-ci selon des modalités qui échappaient aux usagers eux-mêmes et allaient peu à peu devenir la norme.

La difficulté des opérateurs de première ligne à coopérer avec de telles machines se manifesta d’abord par un nombre significatif de situations de communication conflictuelles et d’incompréhension. Dès la fin des années 80, et dans les années 90, les experts en sciences humaines furent ainsi invités à se pencher sur des phénomènes récurrents de baisse de vigilance, de perte ou de dispersion de l’attention, de fatigue (dans l’aéronautique, on évoqua le phénomène de perte de conscience de la situation avant de lancer plusieurs campagnes de sensibilisation sur ce thème). Travaillant à la même époque sur les nouveaux outils de supervision des centrales nucléaires, le sociologue Francis Chateauraynaud eut recours à la notion de « déprise » pour qualifier le sentiment exprimé par les opérateurs d’avoir perdu prise sur leur environnement (Chateauraynaud 1997, 2006).

Michel Freyssenet mettait de son côté l’accent sur la nouvelle division du travail en train de se mettre en place dans le cadre des nouveaux processus d’automatisation aboutissant, selon lui, à l’érosion de l’intelligence pratique. La juxtaposition de connaissances partielles, si elle pouvait superficiellement être assimilée à un processus de requalification, préfigurait en réalité l’impossibilité d’acquérir une vision et une connaissance globales des systèmes et des installations (Freyssenet 1992). On pourrait résumer cette situation par la remarque pleine d’ironie adressée par le physicien Victor Weisskopf à ses étudiants du MIT devant leur goût prononcé pour les expérimentations informatisées : Quand vous me soumettez le résultat, l’ordinateur comprend la réponse, mais vous, je ne crois pas que vous la compreniez (Sennett 2010, 60) (2).

Dans ces avions, l’engagement du corps continue, certes, d’être nécessaire à la conduite du vol. Mais cette forme d’engagement se trouve pour ainsi dire reléguée par des innovations qui rendent l’avion à la fois plus autonome, plus confortable et plus sûr. Il n’y a, à proprement parler, plus de bons ou de mauvais pilotes, mais des « gestionnaires de systèmes », comme les pilotes se désignent eux-mêmes, qui veillent au bon déroulement des process, dialoguent avec les ordinateurs, entrent des données et sélectionnent des modes. Ce qui veut dire que l’environnement immédiat du cockpit, avec ses écrans, ses modalités d’affichage de l’information, concentre désormais l’essentiel de l’attention des pilotes. L’espace perceptif s’est réduit d’autant. C’est sur ce « rétrécissement » de l’expérience corporelle qu’il convient ici d’insister comme cadre d’une refonte du rapport aux autres et au monde qui ne cesse pas d’être problématique.

Ambiguïtés des environnements numériques : persistances et métamorphoses. Le cas du Rafale
L’une des particularités des technologies numériques tient peut-être au fait qu’elles ne se stabilisent jamais complètement, et par conséquent, que les problématiques qui les concernent ne vieillissent pas non plus. Tout processus d’innovation entraîne des reconfigurations multiples, qui cessent une fois l’objet stabilisé. Mais dans le cas des technologies numériques, il semble que le stade de l’innovation, avec ses caractéristiques propres, ne doive jamais cesser. Les questions posées par les premiers usagers du Rafale (lorsque nous nous sommes entretenus avec eux au moment de la prise en main de l’avion) sont par exemple analogues à celles que soulevaient les pilotes de ligne lors de l’entrée en service des glass cockpits (Dubey & Moricot, 2003).

C’est ce qu’illustre le cas de la liaison automatique de données du Rafale (dite liaison 16). Pour certains pilotes, l’intégration systémique — matérialisée dans le cockpit par la possibilité de voir dans un rayon de 360° autour de l’avion — représente l’occasion de placer le pilote au centre du théâtre d’opérations, en situation de tout voir (les pilotes désignent cette situation par l’expression « God’s eyes view »). Elle réaliserait ainsi un vieux rêve du pilote. Mais à tout voir, ne risque-t-on pas de ne plus rien voir de particulier ? L’information qui circule dans les « tuyaux », et s’affiche sur les écrans, est en effet une information filtrée qui correspond à des choix effectués en amont. Elle est donc déjà chargée de sens, mais d’un sens construit dans une autre temporalité (et dans une autre représentation de l’espace) que celle dans laquelle se trouvent les pilotes lors de la mission. C’est ce que pointent les pilotes les plus expérimentés. Un Awacs émet ses détections et centralise celles des avions sous son contrôle. Il les redistribue à tout le monde. Il y a un canal où il diffuse tout (piste de surveillance) et un autre où ne figurent que les pistes que le contrôleur de l’Awacs a sélectionnées (piste de contrôle). Dans l’avion, on peut donc tout voir, ou seulement l’info filtrée. On a le choix. Cependant l’avion filtre quand même lui aussi techniquement une certaine partie. Il applique une liste de priorités et on n’a pas la main sur cette liste de priorités figées au développement (pilote de Rafale) (3).

Cette construction a beau faire intervenir de nombreux acteurs (dont l’ingénieur concepteur de logiciel dans son bureau d’étude), donc être sociale, elle n’est pas partagée ou commune pour autant. C’est ce que traduit très clairement la référence à « la main », dans « on n’a pas la main ». Certaines priorités (qui sont toujours fondées à terme sur une hiérarchie de sens) ont été figées en amont, et échappent ainsi à un contrôle direct, au lien que le corps (la main) maintient avec le monde extérieur, et qui reste le garant d’un engagement. Délocalisée et disjointe de la situation, la production de l’information est chargée d’ambiguïtés qui ne font que refléter la difficile coexistence d’espace-temps hétérogène. Tout le problème devient, dès lors, celui de la construction d’une information qui ait le même sens, au même instant, pour tous les acteurs du système, c’est-à-dire d’une réalité commune.

Capture du corps et perte de distance
Cela m’amène au dernier point que je voudrais aborder, celui vis-à-vis duquel nous avons le moins de recul. Je veux parler des effets de l’intégration de plus en plus poussée du corps et des sens au dispositif technique. D’une certaine façon, les nouvelles interfaces ont pris acte des limites du paradigme informationnel ou computationnel (modèle qui dominait encore la première phase d’informatisation) en prenant davantage en compte certaines caractéristiques du mode d’être incarné des êtres humains. C’est l’une des raisons pour lesquelles l’on insiste beaucoup aujourd’hui sur l’importance du design en conception, ou sur l’écologie des systèmes, c’est-à-dire sur la manière dont la réalité produite par les ordinateurs peut nous toucher directement par les sens. Je n’ai pas la place d’exposer ici les théories de l’action située, ou de l’écologie perceptive de Gibson, au fondement de cette nouvelle approche. Mais c’est ce qu’illustrent de façon concrète les interfaces de l’avion de chasse Rafale qui prennent acte de l’économie que représente pour l’opérateur humain les actions non réfléchies, directement guidées et informées par l’environnement physique de travail. Ce changement de paradigme se manifeste par la façon dont les pilotes désignent cet avion en le qualifiant de « naturel » : Il y a beaucoup d’informations sur cet avion, mais c’est un avion relativement naturel, tu comprends vite où tout se trouve. Tout tombe sous la main (pilote de Rafale).

Mais cette « reconnaissance » du rôle joué par le corps constitue-t-elle une réelle rupture par rapport aux phases de développement antérieures ? Rien n’est moins sûr. Il faut ici distinguer le confort d’usage de ces nouveaux environnements, dans lesquels, comme on vient de le voir, le corps se sent immédiatement à l’aise, de l’apprentissage des sens tel qu’il se pratiquait jusqu’à présent. Traditionnellement, les pilotes apprennent très tôt à se défier de leurs sensations, et dans une certaine mesure, à ne se fier qu’à la lecture de leurs instruments. Mais cette manière de se protéger des illusions sensorielles, inhérentes au mouvement dans un espace sans repères (la troisième dimension), en apprenant à les reconnaître, est encore un savoir corporel acquis pas à pas tout au long de la formation. Le risque est désormais tout autre. C’est celui d’une fausse présence, ou d’une présence pour ainsi dire sans distance ou sans conscience.

C’est le scénario que j’appellerai « Matrix » dans la mesure où il suppose une forme d’adhérence à la réalité produite par les ordinateurs et les systèmes. Devant ce type de reconfiguration, on insiste généralement sur les phénomènes de sur-confiance (délégation aux automatismes) qui peuvent en découler, ou encore sur la difficulté pour les opérateurs humains de revenir dans la boucle en cas de défaillance du système. Mais le principal danger que j’aperçois réside plutôt, me semble-t-il, dans le développement de phénomènes que je qualifierai d’anomiques au sens où l’engagement (y compris corporel et sensoriel) dans une situation n’offre plus de garantie quant à sa signification réelle, mais aussi morale. En l’absence d’extériorité, d’un point d’où il serait permis de prendre des distances, la situation comme le réel lui-même, deviennent d’une certaine manière des « choses » auxquelles il est demandé de croire sans paroles. S’ensuivent des situations marquées, comme je l’ai dit, par l’ambiguïté, mais surtout par un retard de plus en plus important de la conscience sur les décisions qui sont prises. La réalité produite par le système technique ne fait pas qu’introduire un niveau de réalité supplémentaire qui viendrait s’ajouter, s’additionner aux réalités précédentes et plus coutumières (comme dans le discours sur la réalité augmentée), elle modifie les cadres de l’expérience, c’est-à-dire les modalités au travers desquelles nous nous rapportons au monde et aux autres.

Y être sans y être vraiment : l’expérience morcelée
L’avertissement d’un risque de « désensibilisation », ou de « déshumanisation » est ainsi signalé par un glissement sémantique. La Liaison 16 — dit ce jeune pilote — ça restait de la science-fiction. Maintenant, je sais ce que ça veut dire et c’est phénoménal. Pouvoir tirer sur un mec sans contact. Son info à lui va être suffisante pour lui tirer dessus. Votre équipier vous lance une info et vous tirez sur cette info. C’est ça la Liaison 16 (pilote de Rafale). « Tirer sur une info », n’a évidemment pas la même signification que « tirer sur quelqu’un », un autre soi-même, fut-il un combattant ennemi. La figure de l’ennemi finit d’ailleurs elle-même par devenir floue, presque irréelle, jusqu’à se transformer en avatar. Bien entendu, « tirer sur l’info » peut être interprété comme la forme actualisée d’une représentation du réel commune aux pilotes d’hier et d’aujourd’hui, un pilote de chasse ne faisant jamais que viser un point, une coordonnée, une cible à travers un collimateur.

Mais, outre le mode d’affichage de la cible, le changement ici repose sur la possibilité de tirer depuis la vision d’un « autre », ou pour être précis, sur l’information transmise par des capteurs déportés (radar des autres avions, Awacs, satellite, système optique d’un drone), c’est-à-dire depuis une réalité presque entièrement automatisée (où les décisions humaines apparaissent de moins en moins). Ce qui se dévoile ici en filigrane, c’est aussi un tout autre rapport d’exposition à la mort. Le point capital n’est pas que les gestionnaires de systèmes, rivés à leurs écrans de contrôle, aient perdu les valeurs de courage et de sacrifice (par la mise en danger de sa propre vie et le principe de réciprocité dans la mort) chères à l’éthique militaire. Il serait aisé de montrer que ces valeurs continuent de susciter l’adhésion, et dans une large mesure, de structurer encore l’identité du combattant. Le point important est qu’un type d’expérience du réel se met en place qui altère non seulement l’idée de communauté de destin, mais peut-être, de manière plus essentielle, l’idée de commune humanité, y compris sous la figure de l’ennemi. Ce ne sont donc plus seulement les « autres » qui meurent, c’est la notion même d’altérité. L’information n’est pas un autre soi-même, ni même un ennemi.

Nous revenons à notre point de départ, le principe à la base des technologies numériques d’une dissociation entre l’expérience sensible et les supports de la connaissance, c’est-à-dire les modalités à partir desquelles nous entrons en relation avec le monde, sommes présents à lui. Dans l’expérience qui vient d’être évoquée (celle de la Liaison 16) ce n’est pas seulement la communication ou l’action à distance, qui bouleverse les cadres de l’expérience, c’est le fait nouveau que les technologies immersives parviennent à simuler la coprésence en annulant la distance. Le pilote éprouve le sentiment d’être au centre du monde, du théâtre d’opérations, alors qu’il en est plus radicalement coupé qu’auparavant. C’est donc moins la distance physique, la mise à distance d’autrui, qui caractériserait l’époque actuelle, que l’absence de distance, de formes et de médiations symboliques capables d’aménager un terrain favorable aux relations. Le changement de nature de l’expérience sensible dans les environnements numériques nous avertit alors du risque d’un rétrécissement de la capacité à imaginer, au-delà de l’image, un autre soi-même, une extériorité et plus simplement une autre situation que celle qui est donnée à voir sur les écrans. Et c’est à la disjonction aussi bien qu’au télescopage des niveaux d’expériences, des espaces et des temps, comme des êtres entre eux, que nous enjoignent de réfléchir l’unité et l’immédiation factices des univers numériques (Dubey & Moricot, 2008).

Ce phénomène est encore amplifié dans le cas des opérateurs de drones qui exécutent des actions de guerre depuis un monde en paix, déposent leurs enfants à l’école le matin et viennent les rechercher le soir en ayant entre-temps commis des actes de guerre. La relation entre l’expérience de la présence et le lieu de l’action est ici complètement abolie. L’expérience que les opérateurs ont de la situation est à la fois augmentée (par les capteurs infra-rouge par exemple) et diminuée au sens où elle est réduite à quelques canaux d’informations filtrées. De nouveaux problèmes émergent, exacerbés par la nature même de l’activité, et sans doute spécifiques aux situations de guerre. Ainsi, un opérateur de drone n’est plus, à proprement parler, un combattant puisqu’il ne met en jeu que la vie des autres. La valeur associée au courage est congédiée, le fait de tuer devient moralement et socialement injustifiable et s’apparente de plus en plus à un meurtre (Gros 2006, Chamayou 2003).

Mais ces phénomènes nous informent aussi sur ce qui est implicitement en train de se jouer derrière les environnements numériques, sur la manière dont ils affectent nos modes de présence au monde. Le malaise suscité par la situation des opérateurs de drones ne fait pas que révéler les limites de cette manière de faire la guerre (sans la faire, avec la mauvaise conscience qui va avec), mais d’une attitude plus générale face à la vie. Il y a un impensé des technologies numériques, qui constitue un de leurs soubassements idéels, et que la pratique vient mettre à l’épreuve : à savoir qu’une vie qui aurait ni à s’exposer, ni à échanger, ni à s’altérer (au sens propre, d’être en relation avec ce qui est autre) pourrait, sur la base de ce refus, indéfiniment se conserver. Bien entendu, l’inconfort éprouvé par les opérateurs de drones (qui n’a rien à voir avec le syndrome post-traumatique des combattants auquel on l’a parfois comparé) témoigne du contraire et, au moins par défaut, du fait que la vie n’a de sens que transportée hors d’elle-même, comme relation, confiance et pari sur autrui.

Gérard Dubey
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

 

Gérard Dubey est professeur à Télécom École de Management et chercheur au Cetcopra (Centre d’Études des Techniques, des Connaissances et des Pratiques), Université Paris 1 / Panthéon-Sorbonne.

(1) Baudrillard, J. 1968. Le système des objets. p. 74-75.

(2) Reprenant l’exemple des usages de la CAO (Conception Assistée par Ordinateur) en architecture, Richard Sennet précise, dans un ouvrage récent consacré aux savoirs de la main : Des applications sophistiquées de la CAO modélisent les effets sur la construction du jeu changeant de la lumière, du vent ou des variations de températures saisonnières. (Mais) si fastidieux que ce soit, dessiner des briques à la main oblige le dessinateur à réfléchir à leur matérialité, à s’interroger sur leur solidité (…) Ce qu’on voit à l’écran est d’une cohérence impossible, l’image est structurée et unifiée comme on ne le verra jamais dans la réalité. (…) La simulation est (…) un piètre substitut de l’expérience tactile. (…)Le difficile et l’incomplet devraient être des évènements positifs de notre intelligence ; ils devraient nous stimuler comme ne sauraient le faire la simulation et la manipulation d’objets complets. Le problème (de l’informatisation) ne se réduit pas à l’opposition main/machine (…) le problème (…) est que les gens peuvent laisser faire cet apprentissage, la personne n’étant plus qu’un témoin passif doublé d’un consommateur de cette compétence croissante au lieu d’y participer. » (Sennett, R. Ce que sait la main, Paris, Albin Michel, 2010, pp.58-59-61-62-63)

(3) Il y a des choses représentées qui sont fausses. Tout cela a été filtré. D’autres infos manquent. En fait, il y a des domaines où l’information présenté est partiellement fausse ou totalement. Le système présente par exemple toutes les pannes. Il interprète une fausse alarme pour une vraie. Nous on parvient à dire que ce n’est pas cohérent alors que la machine n’en est pas capable… (Pilote de Rafale).

c’est le monde qu’on numérise !

Les développements de l’outil numérique, que d’aucuns n’hésitent pas à considérer comme une véritable « révolution », redonnent vie à des mythes plus anciens et à des perplexités oubliées.

Leibniz fut parmi les premiers à avoir placé ses espoirs dans l’idée d’une « encyclopédie » et d’un ars inveniendi qui s’enrichiraient non seulement de toute l’étendue du savoir rendu disponible, mais des vertus présumées d’une « caractéristique universelle ». La mathesis universalis de Descartes n’était certes pas loin, mais Leibniz, à la différence de l’auteur du Discours de la méthode, avait compris tout le parti pouvant être tiré d’une écriture qui préfigurait, à certains égards, la Begriffschrift du philosophe allemand Gottlob Frege (1). Sur ce terrain, la littérature a elle aussi contribué à nourrir notre imaginaire de perspectives inouïes, à vrai dire infinies, sur lesquelles paraissent s’ouvrir les projets d’écriture ou de bibliothèque universelles associés à la formalisation et à l’usage d’automates. Jorge Luis Borges en a fait le sujet de plusieurs de ses nouvelles, « La bibliothèque de Babel », notamment, et Italo Calvino, en s’abandonnant à son inspiration oulipienne, a poussé plusieurs fois le paradoxe jusqu’à imaginer une littérature qui rendrait contingente la figure de l’auteur (2).

Ces expériences de pensée illustrent les paradoxes sur lesquels — en littérature, comme en logique ou en philosophie — les perspectives évoquées ont débouché. La bibliothèque de Borges, bien qu’infinie en son principe, ne garantit en rien que tous les livres qui en font potentiellement partie s’avéreront lisibles, ni qu’ils le resteront; quant aux vertus de la machine de Calvino, elles s’ouvrent sur des perplexités qui ne sont pas moins grandes que les paradoxes liés à l’idée d’une « bibliothèque des bibliothèques » ou d’un livre qui contiendrait tous les livres (3). De telles perplexités appartiennent-elles au passé ? D’une certaine manière les logiciens en ont eu raison, mais les rêves qui leur étaient liés ont emprunté d’autres voies que les « nouvelles technologies » leur ont ouvertes leur offrant ainsi une nouvelle chance. La numérisation en constitue le nerf.

La conviction qui confie au médium numérique toute la charge d’une révolution n’y joue pas un moindre rôle; celle qui étend cette révolution à ce que seront la littérature et l’art de demain n’en est que le prolongement (4). Bien entendu, nul ne sait de quoi demain sera fait; on peut tout au plus étendre à un hypothétique futur les lignes du présent, car le temps marche rarement en ordre serré. Le seul point susceptible de justifier un minimum d’assurance, comme pour les questions de simple logique, s’applique à ce qui se peut induire d’un point de vue strictement technique et conceptuel dans les différents champs d’application. Quant au médium, on observera en tout cas que les avantages de la numérisation, bien qu’ils tendent à se concentrer dans une dématérialisation qui en facilite la diffusion, n’en restent pas moins subordonnés à des conditions de production et de conservation qui échappent aux auteurs autant qu’aux éditeurs. L’immatérialité supposée y rencontre ses limites dans les ressources techniques mises sur le marché, bien au-delà des contraintes qui ont toujours pesé sur la fabrication du livre et sur ses conditions d’accès.

Le livre est à la source de possibilités d’accès qui ont joué le rôle que l’on sait dans l’extension de l’écrit au sein des cultures ayant remplacé la transmission orale par la communication écrite. Les conséquences en ont bouleversé les conditions de la connaissance, de l’art, de l’exercice du pouvoir et du droit. Le « médium numérique », bien qu’il soit peut-être en passe de réaliser une mutation comparable, ne modifie cependant pas nécessairement les contenus et les enjeux sur lesquels il débouche. Le postulat sur lequel beaucoup prennent aujourd’hui appui en invoquant les principes que Mac Luhan a initialement défendus : « Le message c’est le médium », laisse trop aisément croire que le seul médium porte en lui les révolutions à venir ! Bien sûr, aucun « message » ne peut être dissocié du « médium » auquel il est subordonné, sauf à céder à un nouveau « mythe de la signification », dans les termes de Quine ou à s’exposer inutilement aux vertiges de l’ineffable, mais ce serait une erreur d’en tirer que pour tout « message », il existe un médium et un seul qui lui soit adapté ou de postuler que les conditions de la signification dépendent intégralement du médium. En réalité, le choix d’un médium, et surtout son usage généralisé, ne se sépare pas de conditions qui affectent la société dans son ensemble ni des processus d’interaction qui la constituent. Pour apprécier la portée d’un médium, il faut le situer dans des contextes d’usages qui communiquent avec ce que Wittgenstein appelait une « forme de vie », ou si l’on préfère une culture.

C’est pourquoi il n’est pas seulement absurde de tenir le médium en tant que tel pour déterminant, mais tout aussi absurde de penser que les techniques induisent par elles-mêmes des effets dont elles seraient les seules causes, abstraction faite des conditions sociales, économiques et politiques dont elles sont étroitement solidaires. C’est un vieux problème que posent déjà les suggestions de Walter Benjamin, dans son célèbre essai sur la « reproductibilité technique », trop souvent interprétées dans ce sens obtus (5). La digitalisation de l’information, y compris dans les usages de plus en plus nombreux qui en sont faits dans l’édition, la production des images ou les pratiques artistiques (vidéo, installations interactives, etc.), n’échappe pas à la règle, la pire naïveté étant de croire que la mobilisation des ressources qu’elle offre suffit à apporter une garantie de nouveauté ou d’originalité. Les seuls enjeux économiques qui leur sont liés suffisent à dire combien ces questions sont subordonnées à des finalités ou à des intérêts qui excèdent de beaucoup les seules ressources techniques et les ambitions dont elles sont investies.

On ne peut certes en ignorer pour autant la réalité ou les promesses. Dans le champ artistique, les perspectives initialement associées à l’Internet ont parfois pris le relais de l’art « relationnel » thématisé par Nicolas Bourriaud en 1995 (6). Elles ont été assimilées à une « dématérialisation » qui, tout en privant les objets de tout autre intérêt que celui de leur place dans le réseau des échanges d’information, s’ouvrait sur un art soucieux de s’affranchir des contraintes du marché, quitte à entrer dans une « invisibilité », c’est-à-dire à une clandestinité de résistance. C’était toutefois ignorer ce que Paul Devautour a clairement diagnostiqué en montrant ce que cette « échappée hors du marché de l’art » comportait d’illusoire dès l’instant où l’information devenait un enjeu commun à l’économie et à la pratique artistique. Dans les deux cas, en réalité, l’idéologie dominante de la « relation » ou de la « connexion » ne laisse potentiellement plus aucune place à quelque interstice ou à quelque blanc que ce soit (7).

Les discussions qui ont actuellement lieu en matière de propriété intellectuelle et de droit d’auteur buttent sur des difficultés liées à cette situation, en ce que s’y opposent une ontologie ancrée dans un régime individualisé des œuvres et des artistes et les perspectives d’une économie qui en accomplirait le démantèlement en rentabilisant les seuls flux et réseaux d’information. Les apories sur lesquelles cette situation débouche conjuguent aux ressources de la digitalisation et de l’Internet les perspectives d’un marché débarrassé des inutiles entraves que lui oppose encore la fétichisation de l’art et de la marchandise. Dans l’état de confusion qui en résulte, les points de vue s’enchevêtrent et les contradictions vont bon train, comme toutes les fois où les résistances issues d’un passé encore présent s’opposent à un futur pressenti ou attendu, laissant entrevoir d’autres règles, d’autres chances et d’autres périls. Il n’est pas étonnant que les mutations dont beaucoup postulent l’imminence débouchent tantôt sur une adhésion militante, tantôt sur une hostilité de principe ou sur le sentiment d’un déclin auquel nul ne peut échapper. La question du livre, qui n’en est qu’une variante, en offre une illustration.

Comme l’a justement fait observer Roberto Calasso dans un essai récent (8), le mot « livre » désigne un objet individualisé dont le contenu est protégé par une couverture — qui en marque l’intégrité physique — et par des droits spécifiques qui en garantissent l’authenticité et la propriété. Le livre, comme beaucoup d’autres choses, présente cette particularité d’exister sur un mode multiple (selon un régime allographique) sans être privé de son individualité (le « faux » y prend la forme du plagiat). En un sens c’est ce qui différencie un livre d’un texte. Les textes circulent plus facilement que les livres; ils s’accommodent aussi plus aisément de l’anonymat; l’auteur y paraît moins essentiel, peut-être parce qu’il vise prioritairement la transmission d’une information. En ce sens, les thèses de Mac Luhan s’appliquent plus aisément à un « texte » qu’à un « livre ». Or cette distinction pourrait bien être en train de s’effacer sous l’effet conjugué des ressources de l’Internet et des comportements qu’il induit ou facilite.

La numérisation des livres rendus accessibles sur l’Internet se fait en réalité au bénéfice des « textes »; du livre, elle annule peu à peu l’intégrité et l’individualité, l’obstacle de la couverture ayant été techniquement supprimé et celui du droit étant en passe de l’être ou d’être sérieusement modifié (9). Ce n’est pas un hasard si les comportements qu’on observe chez les élèves ou les étudiants, voire chez les chercheurs, conduisent à remplacer la référence à des « livres » par une référence à des « textes ». L’Internet remplace pour beaucoup la bibliothèque, et les livres numérisés rendus disponibles viennent se fondre dans une masse potentiellement infinie de « documents » dont le statut n’est pas seulement techniquement égal, mais fonctionnellement et ontologiquement équivalent ou compatible. Notre langage, sur ce point, est révélateur. Les textes numérisés se mêlent, sur le même support et dans le même idiome, aux images, à la musique ou au son, pour offrir au consommateur les ressources d’une médiathèque, plus que d’une bibliothèque, rassemblant en elle la pluralité des modes de description et de symbolisation du monde.

Ces possibilités nouvelles ne sont évidemment pas sans fonder des espoirs dont on trouve une expression caractéristique dans une chronique de Kevin Kelly, parue dans le New York Times Magazine sous le titre éloquent : « Par quoi le livre sera-t-il remplacé ? » (10). L’utopie dont les déclarations de Kelly participent est précisément celle de la connexion généralisée : « accélérer la migration de la totalité de notre savoir dans la forme universelle des bits digitaux ». La digitalisation doit permettre à l’humanité de réaliser l’un de ses plus anciens rêves : concentrer toute la connaissance, la plus neuve comme la plus ancienne, en un lieu unique qui, bien entendu, ne peut être qu’un non-lieu. Ce rêve est aussi celui de Google, depuis 2004. Dans son article, Kelly n’hésitait pas à donner des chiffres : il existe à l’heure actuelle à peu près trente-deux millions de livres numérisés. La digitalisation généralisée s’accomplit à travers le scannage de milliers de livres et de textes, autant que de documents de toutes sortes, nourrissant ainsi en un flux permanent un unique livre, « livre universel » ou « livre-monde », comme on voudra, dont le statut devrait être celui du livre ultime, annulant tous les autres et échappant ainsi au paradoxe du livre des livres ou de la bibliothèque des bibliothèques. Ce livre est à lui seul un monde : le monde numérisé ! Ce monde sans trous, d’aucuns diront probablement « sans âme », est-il dès lors encore un monde ? La question ne trouve évidemment pas sa réponse dans une théorie qui en dévoilerait la nature ou le fondement ultime; elle réside bien davantage dans les processus qui s’y trouvent en jeu et dans les conséquences qu’il est permis d’en attendre ou d’en redouter. Nous sommes embarqués, disait Pascal dans un texte célèbre, ce qui n’était qu’une autre façon de dire à quelle responsabilité nous sommes confrontés.

Jean-Pierre Cometti
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

Jean-Pierre Cometti a enseigné la philosophie à l’Université de Provence. Il est l’auteur de plusieurs ouvrages, parmi lesquels Art et facteurs d’art : ontologies friables (Presses Universitaires de Rennes, 2012).

(1) Leibniz, De arte combinatoria (1666); Descartes, Règles pour la direction de l’esprit (1626); Frege, Begriffsschrift (1879, trad., L’idéographie). Les paradoxes du type de la bibliothèque sont ceux qui frappent les classes (ou les ensembles) et la relation d’appartenance (Bertrand Russell, The Principles of Mathematics, 1903).

(2) Jorge Luis Borges, in Fictions (1941, trad., Gallimard). Le rêve, chez Borges, débouche sur un cauchemar ; Italo Calvino, « Cybernétique et fantasmes » (1967), dans La machine littérature. L’auteur n’est-il pas une machine et une machine ne pourrait-elle pas être auteur ?

(3) Les apories auxquelles le texte de Calvino est lié reposent sur l’idée d’un automate littéraire. Elles concernent l’identité de l’œuvre et ce qui revient à l’auteur, à ses intentions, ses qualités spécifiques, etc.

(4) Certains n’hésitent pas à y voir « un nouveau territoire pour la créativité », ouvert à des expériences nouvelles et notamment à une interactivité désormais passée au rang de nouveau.

(5) Walter Benjamin, « L’œuvre d’art à l’ère de sa reproductibilité technique », dans Œuvres 3, Gallimard, Folio.

(6) Nicolas Bourriaud, L’esthétique relationnelle, Les Presses du Réel, 1998.

(7) Voir Paul Devautour, texte d’une vidéo-conférence de novembre 1996 à Saint-Denis : « invisibilité de l’art en réseau » (www.ciren.org/ciren/conferences)

(8) L’iimpronta dell’editore, Piccola Biblioteca Adelphi, 2013.

(9) La couverture rend le livre réfractaire aux opérations de numérisation, bien que ce ne soit plus le cas. Elle préside significativement au rangement et à la disposition des livres dans une bibliothèque.

(10) Cité par R. Calasso, p. 38. Kelly a fondé le magazine Wired, il est aussi l’auteur du livre What Technology Wants (2010).

l’hypothèse intentionnelle

Internet a été immédiatement investi par les paradigmes de l’espace. Mais dès lors que nous examinons son processus, est-ce qu’il ne s’agirait pas de percevoir, en quel sens, la digitalisation des activités humaines n’inaugurerait pas une forme de cartographie de la conscience en général, permettant alors la réduction de l’homme à seulement des processus déterminés ?

Borgès, dans La rigueur de la science, cite un auteur imaginaire du XVIIème siècle, Suarez Miranda, qui parle d’un Empire, où l’art de la carte a été à un tel point développé, qu’au lieu de correspondre à une réduction, la carte de l’Empire fut faite à l’échelle 1. Son texte entre en résonance avec celui de Lewis Caroll, dans Sylvie et Bruno, roman de 1893, dans lequel deux interlocuteurs discutant de l’art de la cartographie en arrivent à poser « l’idée la plus grandiose de toute » à savoir la réalisation d’une « carte du pays à l’échelle d’un mile pour un mile ».

Dans chacun de leur texte, les auteurs montrent que ce n’est pas immédiatement que l’on en vient à penser une carte à l’échelle 1, mais que c’est progressivement, comme s’il s’agissait téléologiquement du seul horizon de cette intention de report du réel dans l’espace cadastré et normé de la carte. L’échelle 1 serait l’assomption de la cartographie : dupliqué absolument le réel dans l’espace symbolique de la carte, saisir le réel exactement et sans reste. L’épuiser et le dominer. Ces deux textes proposant un tel défi, montrent cependant l’impossibilité de cette téléologie, en effet, la carte matérielle pour être à l’échelle 1 devrait recouvrir l’espace réel, ceci amenant à cette conclusion dans le récit de Lewis Caroll, que la « carte ne fut jamais déroulée ».

Toutefois, avec l’informatique puis Internet, et la virtualité de ses dimensions, ce qui paraissait absurde à la fin du XIXème siècle ou au milieu du XXème siècle semble bien pouvoir devenir une réalité. En effet, du fait que les dimensions ouvertes par l’informatique sont virtuelles, il est tout à fait possible de penser que nous établissions une carte à l’échelle 1 du monde, une carte redécalquant sans réduction toute aspérité, tout site du monde. Cependant, avant d’acquiescer à une telle hypothèse, il est nécessaire de bien comprendre ce qui se joue avec Internet et les réseaux, à savoir quel serait le but d’une cartographie.

Le vocabulaire d’Internet est celui du tissage, du site comme espace qui est déplié. Le langage servant à désigner cette réalité et ses pratiques est issu de l’analogie au monde réel et à certains types de déplacement : la toile, le site, la navigation, l’espace, l’ancre, l’adresse… Toutefois, ce recours ne peut qu’apparaître maladroit d’un point de vue analytique.

Ce qui domine au niveau du vocabulaire est l’analogie à l’espace. Mais de quel espace parle-t-on ? Matériellement le seul espace réel lié aux réseaux est celui des machines (localisation par IP) et des centres de data permettant le stockage. Quant à la réalité des contenus, nous ne faisons face qu’à leur virtualité. Ici la différence avec le monde réel est nette. Lorsque nous sommes sur une plage, loin d’être face à une fenêtre, nous sommes immergés dans un monde.

Certes, si je suis sur une plage de la Côte sauvage, en Charente, les paysages du Japon ou du Kenya sont virtuellement présents au niveau intentionnel, et ne sont pas réels, mais le vécu de sens est celui d’un être au monde, qui par contiguïté, devine la continuité géographique du point où il est, aux multiples points de par le monde. Lorsque nous faisons l’expérience d’Internet : nous faisons face à une fenêtre/écran où l’interprétation des codes déplie spatialement sur l’écran une réalité symbolique.

Nous ne sommes pas un être-au-monde, mais un être-face-à. Il n’y a pas d’immersion. Cette non-immersion tient précisément du fait que la virtualité des contenus des réseaux n’est pas de l’ordre de l’espace continu, mais de points absolument détachés les uns des autres. Nous ne surfons pas entre les sites, comme le laisse croire l’analogie de la navigation, mais nous sautons d’un point à un autre. Il n’y a pas de passages, il n’y a pas de distance, mais il y a sautillement par à coup. Nous pourrions retrouver ici, mais au niveau de l’espace, la distinction bergsonienne du temps : l’espace physique du point de vue du vécu de sens est continu et hétérogène, alors que la réalité des réseaux est un espace discontinu et homogène (l’écart type étant celui de la vitesse des réseaux).

Ceci vient du fait qu’Internet, loin de correspondre à la notion d’espace, en est justement détaché. Si la question d’une cartographie peut se poser, ce n’est pas dans le sens d’une géographie, ou géodynamie, mais bien plus dans l’horizon originel de la topique freudienne. À savoir au sens de la représentation condensée de mécanismes et processus intentionnels humains (1).

Ainsi, il serait tout à fait possible de percevoir autrement la question de la cartographie : non plus celle de saisie des lieux, mais de saisie des pensées humaines, à savoir de ce que pourraient être ses intentionnalités. En effet, Internet, en tant qu’espace sans épaisseur, est d’abord le dépliement virtuel de gestes de la pensée, d’horizons intentionnels de l’homme.

Dès lors, si cette hypothèse est avérée, quels sont les enjeux possibles d’une saisie des structures, liaisons et pratiques liées à Internet ? En quel sens, mettre en évidence que ce qui est possiblement cartographiable est de l’ordre de l’intentionnalité humaine et de sa variation factuelle, empirique, ouvre un champ de maîtrise du sujet, voire de se réduction phénoménale à des logiques absolument déterministes ?

Condensateur intentionnel
Les sites web et leur référencement ne sont pas d’abord et avant tout des espaces, mais bien des constructions intentionnelles. Ici il faudrait référencer et catégoriser chaque site et percevoir en quel sens il correspond à une forme intentionnelle : se renseigner sur l’actualité, faire la cuisine, suivre le sport, se divertir, se cultiver, apprendre, désirer, rencontrer, se masturber, collectionner, travailler, écrire, publier, etc. Anne Cauquelin, même si elle n’en faisait pas l’objet de sa recherche précisément, en avait une parfaite intuition : les nœuds qui constituent la réalité de la carte des réseaux ne sont pas seulement les rencontres de plusieurs tracés de communications électroniques, ce sont (…) des mouvements de pensée et des conceptions qui s’y réfléchissent (2).

Certes, les sites référencent et ordonnent des informations, toutefois, il s’agit de dépasser ce simple constat pour bien comprendre qu’ils sont d’abord des sédimentations intentionnelles de notre humanité. Il est nécessaire de distinguer le geste intentionnel et d’autre part le résultat de cette intentionnalité : son contenu. Ainsi, si en effet Jacob Appelbaum a raison de dire dans un entretien au Monde (du 13 décembre 2013) que : Tout va empirer. En collectant sans cesse des masses de données vous concernant, le système de surveillance fabrique votre doppelgänger numérique, un double qui devient plus vrai que vous, et de là de souligner les erreurs de profile, reste que la finalité, n’est pas tant celle de la maîtrise des activités individuelles que le prototypage du comportement général et, de là, la maîtrise des actions individuelles.

Les sites mettent en évidence des intentions de l’homme, et ses intentions elles-mêmes sont classées et pourraient être cartographiées, aussi bien géographiquement (par l’analyse des IP des sites) que socialement, économiquement, ethniquement. Mais, comme cela a été maintes fois énoncé, ce sont les centres d’intérêt qui amènent les associations d’internautes. Si dans son ensemble Internet est un agrégat, dès lors que nous considérons les centres d’intérêt, nous avons à faire à des associations d’individus qui partagent un trait intentionnel commun, qui constituent des sphères ou des cercles. En ce sens les graphes sociaux, qui ont pris leur ampleur avec les plateformes sociales comme Facebook entre autres, montrent parfaitement comment il est possible de créer ce type de correspondance.

Ce qui signifie que ce qui se déplie lorsque nous examinons la diversité des sites, blogs, réseaux sociaux sont des types intentionnels de la conscience humaine. La mention que je faisais en introduction à Freud et son effort répété de construction topique s’éclaire davantage. Ne plus s’attacher d’abord aux contenus, mais saisir la diversité de la pensée humaine qui se donne virtuellement en accès libre au niveau de la synthèse technologique d’Internet.

Internet est une forme de schémas confus à première vue de l’ensemble des horizons d’opérations et de polarisations de la conscience. C’est en quelque sorte une carte mentale du fonctionnement de la conscience, de sa manière d’associer des intentions, de se focaliser, de se déplier. Par exemple : si je cherche le mot astrophysique sur Google (525 000 résultats) il est évident qu’au niveau de la polarisation intentionnelle de la conscience je parviens à un résultat absolument inférieur à ce que pourrait être la recherche du mot sexe (43 100 000 résultats). Ce qui se révèle c’est que l’intentionnalité générale de la pensée se focalise plus sur la question sexuelle que sur les questions d’astrophysique.

Ce à quoi me donne accès selon la logique cartographique Internet, ce n’est pas à l’espace, mais à un schéma des focalisations intentionnelles de l’homme. Internet est d’abord et avant tout phénoménologiquement un condensateur des intentionnalités de l’homme et de ses procédures d’association. C’est pourquoi autant de recherches se font sur les pratiques humaines, sur la question des modalités relationnelles.

Mais ici, il s’agit pour nous justement de prendre recul face à toute focalisation et de bien comprendre que c’est une topique générale de la conscience que nous tentons de comprendre et d’esquisser. Ainsi, s’il n’y a pas de passages comme je le disais entre les sites, mais des sauts, il y a pourtant des formes de passages qui peuvent être perçus, ceux-ci mettant en lumière les possibles associations, liaisons, correspondances entre intentionnalités (3).

En effet, ce qui se lie, est de l’ordre de l’association de pensée. Si je recherche voiture tuning, au niveau des images qui ressortiront sur le moteur de recherche Google, je verrai associées certaines images de voiture à des corps féminins très dévêtus, avec des poses aguicheuses. Au contraire, si nous tapons structure atomique, aucune association à l’érotisme féminin n’apparaîtra, seules des photographies de chercheur viendront entrecouper, les représentations d’atomes et de structures atomiques. Le référencement méthodique donne accès aux schémas d’association intentionnels, à savoir ouvre d’un point de vue architectonique, en quel sens la pensée humaine crée du lien quant à ses polarisations.

cookies world
L’heure est au fantasme de la mémoire universelle et absolue. On nous parle des data-centers, du data-clouding, de la possibilité de tout retrouver à chaque instant de notre vie numérique. Comme si, l’essentiel se jouait là, une omni-science à soi et aux autres quant à l’archivage. La question de la digitalisation, n’est pas d’ordre statique, mais derrière l’apparence, elle est de l’ordre dynamique. Pour le sujet : la digitalisation du vécu comme automatisme serait là comme garantie de sa propre existence. J’existe, car je m’enregistre.

Or, ce qui est derrière la digitalisation des vécus, ce ne sont pas les contenus, mais les trajectoires, les arborescences de trajectoires de chaque sujet, et ses choix. Le véritable archivage n’est pas le contenu que tel ou tel dépose, mais le fait qu’il ait déposé ceci ou cela (logique des tags) sur tel site. L’archivage est celui de la relation, de la connexion et non pas de la donnée. C’est pourquoi ce qui importe pour toutes les entreprises du web est d’abord la logique des cookies.

Les cookies permettent de définir les relations qu’entretient au niveau des réseaux un usager. Ils permettent ainsi d’établir une forme de portraits de l’intentionnalité de l’internaute : que cela soit au niveau de ses achats, de la fréquentation des sites, des relations à d’autres usagers. Les cookies ainsi permettent de tracer des dynamiques intentionnelles, et delà de proposer des cartographies dynamiques des centres d’intérêt. Dès lors la digitalisation, en effet tente de dupliquer un réel, mais non pas celui du monde, mais celui de la conscience.

Nous passons depuis quelques années du web 2.0, qui a été l’inter-communicabilité intra-réseau, au web 3.0 qui se constitue par l’inter-opérativité de technologies qui ne sont plus liées immédiatement au réseau de prime abord, à savoir qui s’échappent de la logique de l’écran. Cette inter-connectivité est la nouvelle phase de processus typologique des pratiques humaines et de leur quantification.

Ainsi, si on observe les objets connectés, il s’agit de bien saisir et quantifier les pratiques intentionnelles. Si on considère la prochaine mise sur marché, de la société de Rafi Halajan, qui avait créé le Nabaztag, il s’agit de commercialiser un objet connecté qui s’appelle Mother. Mother va interconnecter des cookies physiques qui peuvent être posés sur divers objets afin d’examiner des pratiques. Ces cookies vont aussi bien s’adapter au frigidaire, qu’à la porte d’entrée, à un cartable, une brosse à dents comme le montre le teaser servant à lever les fonds d’investissement.

Bien plus développés que ce que peut être le Nike+ FuelBand, Mother et ses applications pourront schématiser l’ensemble des intentions d’une famille, et dès lors générer des schémas comportementaux. Ici, ce qui apparaît n’est pas tant la question de la réalité augmentée dans laquelle nous sommes, ni même celle de l’autonomie de la machine, qui reste en dernier ressort de l’ordre du fantasme si on projette une forme intentionnelle, mais bien la logique de cartographie de notre conscience de son mode de fonctionnements. De même la nouvelle fonction iBeacon lancée par Apple sur les iPhone va dans le même sens. Interagir avec le client dans une boutique à partir de ses centres d’intérêt.

Cet Internet des objets ou des procédures est ce qui est au cœur de la surveillance de la NSA, dévoilée par Snowden. Ce qui doit être pensé dans cette affaire, notamment, la récente mise en lumière de la surveillance des téléphones portables, tient non pas seulement le niveau communicationnel, mais aussi au niveau des déplacements de leur propriétaire. Cette logique du traçage des pratiques est au cœur de même de tout usage de cartes ou capteurs liés à la société de consommation. On perçoit que la possibilité offerte tend à l’inversion de la cause et de l’effet. Il ne s’agit pas tant de prendre en compte que de pouvoir anticiper selon des modalités statistiques les possibles processus humains et delà de pouvoir les provoquer.

Google montre la voie avec ses graphes épidémiques de la grippe par exemple. Ceux-ci permettent de percevoir et d’anticiper le développement de la maladie à partir d’analyse des requêtes avancées de son moteur de recherche. Certains termes de recherche semblent être de bons indicateurs de la propagation de la grippe. Afin de vous fournir une estimation de la propagation du virus, ce site rassemble donc des données relatives aux recherches lancées sur Google, est-il écrit en bandeau de ce graphe. Internet et la digitalisation sont donc une logique de globalisation des processus individuels selon la volonté de constituer la réalité non pas communautaire, mais synthétique de l’homme, en tant qu’organisme global constitué de particules.

L’épuisement de la singularité
L’ensemble de ces tentatives montre que ce qui est recherché, c’est la réduction de la part singulière de l’homme, sa part imprévisible, son individualité, au profit de la conception techno-synthétique de l’humanité. La digitalisation et la cartographie sont celles de la pensée, non plus individuelle, mais collective et dès lors par le renversement cause/effet, c’est la possibilité de mettre à disposition de puissances symboliques ou économiques, le devenir temporel de l’homme.

Si ce type de paradigme ressort parfaitement de film comme Minority report de Spielberg, reste que bien avant, avec les pères de la cybernétique, cela a pu être annoncé. En effet, si on en revient à David Aurel et son livre La cybernétique et l’humain (4), était déjà mis en perspective le projet de la cybernétique : réduire l’homme et ses intentionnalités à un ensemble d’équations déterministes, repoussant la question de la liberté à ne plus être rien. David Aurel, dans un de ses schémas, reprenant la question de la liberté telle qu’elle a été proposée par Descartes, explique que l’analyse des mécanismes intentionnels de l’homme, permet de voir en quel sens son comportement peut être réduit à des calculs d’intérêt, ou encore des procédures de réactions spécifiquement déterminables, ceci impliquant de réduire la liberté à un presque rien (5).

La volonté de digitaliser, cartographier, ordonner, référencer indéfiniment n’est pas du tout dans la logique de la connaissance, mais du contrôle. Le savoir est subordonné au pouvoir : la question de l’action dépasse la question de la théorie selon une dialectique du contrôle. On ne peut que rappeler ici ce que Heidegger, dans sa critique de l’ère technique, en tant que cybernétique mettait déjà en évidence : l’homme est vidé de son humanité, au sens où la technique le réduit lui-même à n’être seulement qu’un étant parmi les étants (6).

La logique de cartographie liée au réseau repose ainsi sur la certitude, elle-même refoulée, que l’homme se réduit à un étant que l’on peut absolument, et sans reste, réduire à un déterminisme fonctionnel, donc chaque partie par sa variation traduit des formes d’intentionnalité de la globalité organique. Dès lors, pour conclure, si l’optique de Dominique Cardon (7) est assez juste, à savoir l’abolition des espaces en clair-obscur afin de les porter à la lumière des moteurs de recherche, on ne peut que se séparer de sa conclusion. La cartographie intentionnelle qui peu à peu se répand et s’accélère avec le web 3.0, est de l’ordre de la saisie de l’intentionnalité humaine en tant qu’entité globale en vue de sa domination par des logiques économiques et donc idéologiques.

Nous retrouvons ici sans doute historiquement ce qu’a été l’avènement de la carte. La cartographie et la géographie, loin de ne reposer que sur l’épreuve de la connaissance, seulement objective, répondaient phénoménologiquement à la question de l’utilité. Phénoménologiquement : le face-à-quoi est toujours subordonné au pour-quoi, au en-vue-de-quoi. À l’instar de ce que dénonçait Adorno à propos de la société capitaliste dans Minima Moralia, ce qui est proposé, comme service au niveau des réseaux, est dialectiquement institué en vue de la mainmise et de la domination de l’homme. Les services proposés par le web, ne sont là que pour accélérer et parfaire selon le principe d’exhaustivité, la cartographie de nos choix, de nos perspectives, de nos existences.

Ainsi, loin de partager la suspension positive de Dominique Cardon, parlant de liberté de l’individu, il est évident que la digitalisation de nos existences, tend de plus en plus à nous fixer, avec l’assentiment de chaque individu concerné, à des formes de déterminismes, anticipables et dès lors calculables selon des logiques de profits.

Philippe Boisnard
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

Après des études de Philosophie à la Sorbonne (Master II) et de Lettres à Jussieu (Master II), Philippe Boisnard se consacre à l’écriture et à l’informatique. Artiste programmeur, il est chargé de cours en Master à Annecy et Directeur artistique de la FASTERI (Formation d’Angoulême de Supervision des Technologies du Relief et de l’Interactivité).

(1) Ce point précis pourrait permettre de bien comprendre le relatif échec de Second Life. Second Life s’est proposé de donner une réalité mimétique — au sens spatial et formel — de la nôtre. En effet, le participant se retrouve incarner un personnage dans un monde, répondant des mêmes processus, mais en virtuel, que ceux de notre existence. Second Life aurait parfaitement pu devenir le réseau social absolu à partir du milieu des années 2000. Or cela n’a pas été le cas, le désintérêt a été très rapide, notamment en France après les élections de 2007, où il fut très présent du fait de sa nouveauté. La raison de ce désintérêt vient du fait que ce qui domine au niveau d’Internet, n’est aucunement de l’ordre de la recherche d’une mimésis de l’espace, mais de l’incarnation de notre intentionnalité. L’internaute recherche davantage la forme esthétique des procédures intentionnelles, que la recopie du monde. Autrement dit, pour quelle raison des réseaux sociaux comme Facebook ont fonctionné et fonctionnent très bien, c’est que la conscience s’y reconnaît, Facebook est un condensateur intentionnel, qui a neutralisé toute forme de mimétique esthétique exogène à la conscience.

(2) Anne Cauquelin, Le site et le paysage, PUF, 2002.

(3) Il faudrait aussi mettre en évidence et analyser toutes les recherches sur le web-sémantique, et donc la question des tags associés à des contenus. Ces associations sont de l’ordre de schématisation de modalités de pensée. Dès lors la volonté de pouvoir maîtriser un web-sémantique appartient pleinement à la logique de saisie des procédures intentionnelles de l’homme.

(4) David Aurel, La cybernétique et l’humain, Gallimard, 1965.

(5) Il faudrait établir la discussion entre Jankélévitch et cette thèse de David Aurel à la lumière de l’évolution d’Internet et des opérations que j’ai décrites. En effet, Jankélévitch tend à poser dans le Je ne sais quoi et le presque rien, que la liberté, prise dans le déterminisme, n’a de sens que dans la transcendantalité du futur. Or, selon cette logique de réduction cybernétique des intentionnalités humaines et la maîtrise statistique de plus en pus forte des relations que la conscience établie, on pourrait penser que peu à peu, l’intentionnalité humaine quant aux possibles, puisse se réduire à un phénomène équalisable d’un point de vue déterministe. Ceci ressort de ce qu’écrit David Aurel : La technique rationnelle a attaqué le droit comme elle a attaqué la Médecine. Cela tient à l’augmentation du nombre des hommes, au fort taux de couplage de leurs relations actuelles (…). Le point le plus connu est celui de la cybernétisation de la gestion administrative. L’Automation, dont la réglementation préoccupe par ailleurs fortement le Droit, le pénètre lui-même dans son organisation technique (p.140).

(6) Heidegger, Le dépassement de la métaphysique : L’usure de toutes les matières, y compris la matière première « homme », au bénéfice de la production technique de la possibilité absolue de tout fabriquer, est secrètement déterminée par le vide total où l’étant, où les étoffes du réel, sont suspendues. Ce vide doit être entièrement rempli. Mais comme le vide de l’être, surtout quand il ne peut être senti comme tel, ne peut jamais être comblé par la plénitude de l’étant, il ne reste pour y échapper qu’à organiser sans cesse l’étant pour rendre possible, d’une façon permanente, la mise en ordre entendue comme la forme sous laquelle l’action sans but est mise en sécurité. Vue sous cet angle, la technique, qui sans le savoir est en rapport avec le vide de l’être, est ainsi l’organisation de la pénurie.

(7) Dominique Cardon, La démocratie Internet, Seuil, 2010.

Si l’on considère l’évolution de la sculpture dans l’art contemporain, on est conduit au constat d’une diversité croissante de propositions artistiques qui semblent s’être affranchies de toute référence à un modèle dominant, comme c’était encore le cas au temps des avant-gardes. On serait même conduit à penser que c’est là un phénomène constant dans l’histoire récente : de la statuaire venant ponctuer les abords des édifices publics ou religieux jusqu’à la sculpture moderne venant questionner dans l’espace public les excès même du modernisme, en passant par toutes les formes plus ou moins pérennes ou plus ou moins éphémères des arts du site et de l’environnement, la relation entre l’art et la ville s’est enrichie, diversifiée, et comme affranchie des limites de plus en plus incertaines qui séparent l’art et le non-art, le matériau et l’immatériau, l’urbain et le rurbain.

Ce mouvement est pour une large part l’effet de ce soupçon généralisé qui gouverne aujourd’hui la relation entre l’art et la réalité, et cette supposée déréalisation du monde à laquelle l’excès des simulacres et des simulations nous a accoutumés (1). On peut y voir, aussi et d’abord, la manifestation directe de l’importance prise par les questions de temporalité et de rythme, de mobilité et de trajet, dans les arts du volume et de l’espace, dans les formes mêmes de la spatialité artistique actuelle. Mais aussi, et avec pas moins de force, l’expression des divers modes de dislocation de nos régimes spatio-temporels d’appartenance à nos territoires et à nos environnements urbanisés : conséquence évidente, c’est un lieu commun de le rappeler, de la mondialisation et de l’essor des réseaux numériques qui viennent se superposer au territoire réel comme une deuxième peau, et même infiltrer ce territoire, de manière à la fois — et paradoxalement — de plus en plus invasive et de moins en moins visible parce que de plus en plus naturalisée (pour Benjamin, il faut le rappeler ici, le stade de la seconde technique est le stade de la technique naturalisée).

Thierry Paquot évoque à ce propos l’hypothèse d’une technologie urbaine mondialisée qui environne l’environnement (2), élevant le territoire réel à la puissance d’un hyper-territoire avec lequel les anciens territoires sont sommés de composer — de se réinitialiser devrait-on presque dire ici — sous peine de disparaître de la scène mondiale. Il ne serait pas vain de s’interroger à ce sujet sur la propension actuelle de l’architecture à renouer ainsi avec la scénographie et le spectaculaire en général, et à se libérer corrélativement d’une certaine doxa fonctionnaliste venue du modernisme : la scénographia des Grecs, qui fut aussi la voie royale qu’emprunta l’architecture des origines jusqu’à la Renaissance pour occuper le premier rôle dans des arts, est à nouveau à l’œuvre avec les « starchitectes », et singulièrement dans le domaine des lieux dédiés aux arts comme les musées (Hugo emploie même, dans son célèbre chapitre de Notre Dame de Paris, « ceci tuera cela », l’expression d’un art tyran pour souligner cette hégémonie de l’architecture sur les autres arts, qui, dans le temple ou la cathédrale, les contient et les retient tous sous sa coupole, avant que ceux-ci ne s’émancipent).

Peut-être convient-il de s’appuyer à ce point sur quelques repères pour étayer l’analyse des questions de l’art contemporain et de la ville, et pour mesurer à quel point ces questions nécessitent d’être réactualisées. On se référera ici à une étude de François Barré, publiée en ouverture de l’ouvrage Œuvre et Lieu (3). Barré distingue plusieurs modes d’inscription de l’œuvre d’art dans l’espace public : la statuomanie, l’indépendance revendiquée de l’œuvre par rapport au contexte, ou au contraire la revendication de l’influence du lieu sur l’œuvre (c’est le cas des colonnes de Buren). Mais aussi, les esthétiques relationnelles, l’importance du récit et de l’histoire immanents aux œuvres, les fonctions de seuil et de passages assignés aux œuvres, etc.

De cet essai de typologie, on peut retenir l’hypothèse, toujours d’actualité, d’un conflit, d’une tension jamais résolue, ou d’une relation en constante mutation, entre l’architecture ou l’urbanisme issu de la modernité (et en particulier celui qui résulte de l’application ad nauseam de la Charte d’Athènes) et l’art. Face à ce purisme urbanistique, réducteur et niveleur, lui-même profondément lié à l’industrialisation du territoire et à sa standardisation appelée, comme tout produit industriel, par cette industrialisation même, les artistes ont cherché à exprimer la nécessité de l’excès, de l’irréductibilité du « message » de l’œuvre d’art à un standard, à un code, une norme ou une mesure, et à faire de la forme souvent dérangeante qui la soutient le lieu d’une question adressée au monde, là où l’architecture se devait au contraire d’apporter surtout des réponses : rappelons que le modèle architectural qui présidera à la rédaction de la charte d’Athènes se donne d’abord comme une réponse, un remède à apporter à ce corps malade qu’est devenu la grande ville.

Ce qui est en cause, c’est la critique d’une modernité à spectre large et surplombant qui entend régner sans partage sur le visible spatial à l’échelle mondiale, et c’est ce regard totalisant dont certaines œuvres veulent montrer l’envers au noir, le paysage de ruines que cette modernité porte en puissance dans son arrogance même. On trouve une expression esthétique parfois très pertinente de cette intention dans certaines œuvres relevant d’un romantisme tardif, et qui se réapproprient à l’âge contemporain le goût romantique des paysages de ruines. C’est un tel dispositif de fragmentation et de chaos romantique, appliqué à l’histoire contemporaine, qu’avait imaginé Hans Haacke avec son installation à la Biennale de Venise, Germania, de 1993, en cassant le carrelage du sol et en faisant déambuler les visiteurs sur les éclats de ce paysage de ruines (4).

L’art urbain serait alors comme l’autre de la culture industrielle de la modernité et des technologies de contrôle qui la soutiennent, de ses médias, de ses signes surmultipliés dans l’espace urbain saturé, et il trouvera en effet son expression dans les esthétiques du soupçon, du fragment, du chaos, de la contrainte ou de la participation; esthétiques dont certains artistes (du Land art ou de la performance) ou certains écrivains (de « l’écriture blanche » ou du Nouveau Roman jusqu’à Tel Quel) proposeront de nombreuses occurrences. Il faut souligner à quel point ces esthétiques sont travaillées par le démembrement du corps propre comme du corps social, esthétiques du défaut, du manque, du retrait, de la dérive, de la désynchronisation diégétique et du silence corrélatifs à l’excès même du visuel; excès du visuel qui se manifeste dans la mise en spectacle de la marchandise, dans le bavardage de la communication et de la consommation de masse. Pourtant, les relations entre l’art et l’architecture ou l’urbanisme modernes peuvent être pensées aujourd’hui dans un autre cadre que celui de ce réductionnisme fonctionnaliste auquel l’art aurait cherché à s’opposer.

C’est en particulier la ligne adoptée dans une étude récente par Patrice Maniglier sur la problématique de l’espace conçu et de l’espace perçu, en particulier telles quelles s’appliquent à une œuvre de deux artistes [Laetitia Delafontaine et Gregory Niel], intitulée Rosemary’s place. […/…] Maniglier souligne avec pertinence que ce renversement, qui fait de l’image, et même de l’image-temps-et-mouvement du cinéma, la matière première d’un espace d’abord perçu avant que d’être conçu, réactualise l’ancienne scénografia des Grecs, aux yeux desquels l’architecture n’avait pas seulement pour vocation de remplir certaines fonctions (les fameux besoins fondamentaux auxquels entend répondre la Charte d’Athènes), mais avait aussi une dimension spéculative, celle de communiquer le sens de ces divines proportions dont la contemplation (et non pas l’occupation) était empreinte d’une dimension mystagogique. Dans cette mesure, l’architecture allait devenir « l’art majeur », avant que les arts divers qu’elle abritait sous sa coupole ne cherchent à s’affranchir de son antique tutelle. En ce sens, l’architecture aura toujours été au moins autant spectacle, émotion, contemplation, « grand livre de l’humanité », ou image de la Cité Céleste qu’abri, fonction et art appliqué.

Il est notable que ce renversement des anciennes hiérarchies, cette affirmation des puissances de l’imaginaire ait lieu dans un temps qui (sur)valorise les réseaux et les espaces virtuels — lesquels ont fini par devenir cet objet de culte qu’avaient anticipé les Saint-Simoniens, et n’en finissent pas de modeler non seulement les lieux urbains (et la modernité n’est, en un sens, rien d’autre que l’aménagement réticulaire du territoire), mais aussi les milieux humains et les comportements au point que c’est l’espace public lui-même qui semble avoir migré sur les réseaux numériques.

Le réseau et le rond-point comme métaphore
Les réseaux avaient déjà en effet profondément bouleversé le territoire, mais il s’agissait des réseaux du premier âge industriel, dont se délectent aujourd’hui les artistes, soit que ces réseaux soient encore opérationnels (et ils le sont dans une mesure encore très importante — un beau travail consisterait d’ailleurs à affecter des marqueurs temporels sur la carte de tous ces réseaux que nous utilisions encore aujourd’hui, pour donner à la carte ainsi redéfinie, cette profondeur de temps qui lui fait défaut, sauf pour la nature et la géologie) soit, cas le plus fréquent, pour en archiver la mémoire à travers des dispositifs et objets monumentaux qui en conservent la trace (car ces témoins d’une industrie lourde sont au mieux promis à la reconversion — et il s’agit souvent d’une reconversion artistique —, au pire à la disparition ou à l’effacement dans les plis de la rurbanité galopante au-delà des frontières de la ville et même de ses banlieues).

Il est utile cependant de rappeler à quel point ces marques d’un paysage aujourd’hui révolu, auront su, et depuis longtemps déjà, accéder, dans certaines pages célèbres de Heidegger ou Simondon sur les ponts, les routes, les manufactures et autres marques paysagères de l’âge industriel, à une sorte de dignité esthétique, qui leur fut d’abord communément refusée. Ainsi, les artistes et les philosophes ont su libérer la pensée de la tutelle d’une antique esthétique du beau naturel, et montrer les beautés inaccoutumées du beau industriel (cela commence avec les impressionnistes, et les bords de la Seine, qui sont indissolublement le lieu d’une évolution des mœurs et d’une mutation des paysages — et qui voient s’élever de grandes cheminées, des ponts métalliques, des manufactures et entrepôts sur les quais du fleuve), construisant progressivement l’image d’un paysage organisé autour de quelques grands marqueurs datant du premier âge industriel et de sa gloire, aujourd’hui commués en lieux de mémoire (tel, par exemple, le Musée de la Mine de Saint-Étienne), ou encore survivant dans la mémoire par le traitement que leur applique certains artistes photographes (on pense évidemment ici aux châteaux d’eau et autres tours réfrigérées répertoriés et archivés par Bernd et Hilla Becher).

En ce sens, il y a un singulier du pluriel industriel, et cette singularité des dispositifs et sites où s’inventèrent à grande échelle les objets en série de la société de consommation (voitures, électroménager, chaussures, textiles), n’échappe pas aux gardiens de la mémoire et de l’épaisseur symbolique des choses. Qu’ils soient artistes, ou conservateurs en charge du patrimoine, l’industrie lourde et ses marques paysagères sont l’objet, qui doit beaucoup à la photographie, d’un savant travail d’inventaire, de conservation/reconversion, qui fait une part égale au divertissement et au culte. Cela nous conduit à penser que l’industrie, paradigme même de la répétition mécanique du même à l’échelle des marchés de masse, a aussi partie liée avec la singularité des lieux, des cultures et des territoires.

Que la reproduction vienne finalement en amont de la production et la poïésis, voilà une très vieille question, qui vient déranger à l’âge industriel les anciennes hiérarchies du majeur et du mineur, de l’art majuscule et des arts appliqués, et nous renvoie, pour la revisiter, à l’ancienne hiérarchie des arts mécaniques et des arts libéraux : les arts industriels, que l’on serait portés a priori à situer du côté des arts mineurs en tant qu’ils procèdent d’une forme d’utilitarisme et de reproductibilité, sont plus difficiles à catégoriser qu’il n’y parait a priori (et c’est tout le travail, sans cesse à reprendre, auquel invite le texte canonique de Benjamin consacré à cette question). Cette haute modernité industrielle, qui irradie partout dans un sens que l’on croyait être d’abord celui d’une neutralisation des lieux et des cultures singulières, est ainsi aujourd’hui l’objet d’une attention, presque d’une sacralisation, ou d’un culte, après avoir servi de repoussoir ambigu pour les artistes (ambigu, car les grands artistes du XXème ont toujours su négocier un rapport intelligent avec l’industrie, une relation faite de fascination et de répulsion, et réinventer l’art au cœur même de ce qui se donne a priori comme sa négation programmée — on pense ici à Duchamp ou Warhol, ou même Arman et César).

Certains artistes l’ont bien compris, et ont su tirer parti des matériaux industriels qui constituent le vocabulaire même de l’espace urbain moderne et industrialisé pour concevoir des œuvres dont la grammaire et le vocabulaire sont tirés de leur répertoire : Patrick Raynaud a ainsi conçu un Giratoire (6) qui trouve son principe dans l’un de ces lieux hautement problématiques dans l’imaginaire collectif des Français, et sans doute des Européens. Il s’agit du rond-point : la sculpture qu’il propose sur un de ces ronds-points est formée des panneaux de signalisation les plus divers qui composent notre code de la route et son système d’interdiction et d’orientation. Le rond-point s’est en effet imposé, à la fois soudainement et massivement, à l’ordre circulatoire et routier des Européens, sans prévenir de son arrivée, et est venu perturber un habitus inscrit dans les profondeurs de l’homo automobilis : la sacro-sainte priorité à droite. […/…]

Le rond-point est aujourd’hui assimilé par le corps social et peu sociable des automobilistes, comme une fatalité et comme une figure obligée de la circulation. Mais un problème subsistait, une fois le rond-point accepté dans son principe et reconnu dans ses vertus sécuritaires : son sens (le mot s’entendant aussi bien en termes de signification que d’orientation), ou si l’on veut ses qualités à la fois esthétiques, symboliques et sémiotiques (les objets d’orientation dans la ville et sur la terre ayant, on le sait depuis toujours, rempli de hautes fonctions symboliques, mais aussi esthétiques; et la signalétique urbaine a acquis, au cinéma ou même dans un certain hyperréalisme artistique, ses titres de gloire depuis bien longtemps déjà). Car la question s’est très vite et à juste titre posée de la profonde vacuité de ces cercles qui se succèdent en enfilade au fur et à mesure qu’on entre ou qu’on sort des modernes mégapoles […/…]. Le rond-point abolit le conflit de l’art et de la ville comme partage « dissensuel » du sensible, et il est patent que ces ronds-points sont devenus dans bien des cas le refuge de la haine de l’art, le réceptacle et l’exhibition d’œuvres monstrueuses qui sont supposées égayer la circulation.

Fluidité et mobilité : l’art à l’heure des nouveaux agencements mobiles et collectifs d’énonciation.
Le rond-point vaut donc comme métaphore de la fluidité voulue par le monde actuel, l’expression achevée de cette mobilité promue à la fois par les systèmes de transports et les systèmes de communication, et en particulier les réseaux et les nouvelles technologies, réseau dont ils seraient comme les nœuds. Cette fluidité et cette mobilité généralisées, tiennent, on l’a déjà souligné, à la dislocation des anciens régimes d’appartenance — foyer, famille, territoires ou quartiers —, à la puissance des « objets nomades » et des portables en particulier, au trafic incessant des images et à leur caractère flottant, au doute qui en résulte quant à leur vérité et à leur caractère de preuve.

Cela tient encore à l’empire contemporain du récit et de la fiction dans la gestion des affaires de la cité (comme le démontre l’emprise du storytelling dans le discours et la gestion de l’espace politique). La question se résumerait alors à cette formule lancée par Deleuze : que peut l’art encore quand c’est le monde qui fait son cinéma ?, et quand l’histoire tourne en rond comme les automobilistes autour d’une rond-point ? Quand, devrait-on ajouter, c’est le cinéma — au sens large d’un dispositif foucaldien fondé sur le temps et le mouvement qui environne l’environnement spatial même ? Mais un dispositif, qui par le biais des technologies numériques de toute nature qui convergent dans les rues de nos villes et à même nos corps, semble avoir étendu son emprise au battement artériel de la ville-monde tout entière.

Chacun peut constater la place grandissante des systèmes de contrôle optique et/ou de traçabilité biométrique (vidéo-surveillance, systèmes de vision panoptique comme Google Earth, ou encore cartographiques dynamiques accessibles via nos portables même, et déjà les puces RFID). Cette couche sans cesse plus dense de connexions télé-numériques a une première conséquence majeure (outre qu’elles se présentent de plus en plus sur un plan de saisie et d’enregistrement haptique et optique) : elle modèle, elle agence nos modes de vie, nos milieux et nos comportements à la fois individuels et collectifs à une échelle inégalée — qui va bien au-delà des échelles de ces micro-communautés virtuelles des « pionniers » du réseau, aujourd’hui largement dépassés par le flot et le flux des réseaux sociaux, et des apéros géants de Facebook. Elle est en passe de devenir l’espace public même (voyez l’importance acquise en quelques mois par les médias alternatifs en ligne, comme Mediapart ou Agoravox, et leur poids dans le débat politique), ou au moins le théâtre de ces « nouveaux agencements collectifs d’énonciation » que Félix Guattari appelait de ses vœux, et qui se réalisent aujourd’hui, mais selon des orientations bien différentes de celles que le philosophe avait en vue.

Elle a une deuxième conséquence : c’est qu’elle induit une mobilité et une portabilité généralisées qui sont désormais les vrais liants du ciment social, après (ou avant la télévision, si l’on résonne statistiquement sur les populations jeunes), et la moindre association disposant d’un site en ligne ne saurait se manifester sur la scène mondiale sans son réseau de liens connexes et de sites liés. Il en résulte, on le sait, d’insurmontables problèmes de régulation commerciale, territoriale, juridique, étant donné le caractère transfrontalier et ubiquitaire de ces technologies (ce problème est d’ailleurs au cœur de la discussion à propos de la numérisation du patrimoine littéraire de l’Europe, et au rôle qu’entend s’attribuer Google dans ce projet), etc.

Il en résulte aussi un constat facile à faire : c’est que si le virtuel n’abolit pas le réel, ou ne conduit pas à sa résolution dans l’éther du simulacre généralisé, la question des relations entre le virtuel et la réalité ne s’en pose pas moins d’une manière d’autant plus pressante que les technologies numériques et les réseaux ont aujourd’hui infiltré les lieux et les milieux humains aux dimensions des territoires et des espaces du collectif à une échelle massive : avec ces milliards d’utilisateurs de téléphones portables dans le monde actuel, la portabilité n’est plus du tout une affaire de connectés ou de spécialistes. Un autre aspect de cette évolution tient à son caractère fluide, liquide, indomptable comme une mer déchainée. Ces technologies ne sont jamais là où on les attendrait, et leurs usages, leur évolution, bien que parfaitement programmées dans les laboratoires, ne se réalisent jamais comme on le croyait : là où l’on attendait ceci, c’est cela qui vient et se déploie à la vitesse virale des rumeurs.

Il devient dès lors très difficile de tracer les lignes d’une évolution prévisible entre les arts contemporains et la ville d’aujourd’hui, tant sont diverses les figures et les formes qu’empruntent les expérimentations artistiques actuelles, elles-mêmes en résonance constante avec la pensée et la réalité de l’innovation technologique en révolution permanente : il est devenu évident que la vidéo-surveillance est désormais l’enjeu d’une esthétique et d’une « pragmatique » urbaines inédites, qui empruntent à la fois à l’esthétique surréaliste et à la dérive situationnistes. Et en effet, une bonne part des tentatives de l’art actuel s’inscrit en continuité avec les œuvres de certains « ouvroirs » d’espaces potentiels : on sait bien que l’esthétique de la modernité même ne serait rien sans le prédicat de la mobilité, du déplacement et du trajet, dans l’art comme dans la littérature — de Breton à Pérec en passant par Butor, Pasolini, Godard, Debord, ou Long —, rien n’aura eu lieu que le déplacement et le trajet comme métaphore et objet de toute quête esthétique ou poétique.

En ce sens, l’actuelle question de la mobilité ne fait que s’inscrire dans la continuité des engouements de l’avant-garde artistique et littéraire du siècle dernier, de même d’ailleurs que la recherche d’un couplage singulier, « hétérochronique » autant qu’hétérotopique, entre perception objective et perception subjective, entre individu et collectif. […/…] Dans un autre registre, certains artistes imaginent des œuvres relevant d’une catégorie inédite, et que je proposerais volontiers de qualifier d’œuvres augmentées (comme on parle de réalité augmentée à propos du virtuel), parce qu’elles réalisent une forme de couplage ou d’hybridation inédits entre l’espace urbain et le réseau. Ainsi, Sophie Calle a proposé en 2007 une œuvre intitulée www.transport-amoureux.vu, qu’elle a installée dans une station du tramway de Toulouse. La recension de cette œuvre dans l’ouvrage L’art à ciel ouvert, consacré à la commande publique, fait mention de celle-ci dans les termes suivants : l’œuvre de Sophie Calle illustre bien ce phénomène de couplage de l’écran d’ordinateur et de l’espace urbain dans cette commande publique. […/…]

Mais ce n’est pas non plus simplement d’un couplage qu’il s’agit — comme si les deux allaient ensemble dans une heureuse harmonie : il s’agit d’un renversement conflictuel de la hiérarchie des espaces, de la hiérarchie des formes du lieu et de l’espace public en général. Comme si désormais c’était l’écran de l’ordinateur et plus généralement le paradigme du réseau qui s’imposaient aux formes, aux apparences que devait prendre l’espace de la vie commune, et qui en modèlerait non seulement les signes, mais aussi l’architecture (ainsi depuis déjà longtemps de ce toit d’une école d’ingénieur de Marne-la-Vallée, qui est clairement l’agrandissement aux échelles d’un bâtiment, d’un écran d’ordinateur, à la manière de cette pince à linge qu’Oldenburg avait conçue, mais aux dimensions d’une sculpture destinée à prendre place dans les rues de New York ).

Le « terminal », dès lors, n’est en rien ce qui se trouve au terme d’un processus qui irait du réseau vers le récepteur ou l’internaute, du dehors collectif vers le dedans individuel. Dans une logique de maillage connexionniste du territoire et des réseaux, et de mise en relation complexe du public et du privé, le terminal est aussi bien la source, le moteur d’affiliation de la sphère publique à la sphère privée et de la sphère privée vers la sphère publique (avec les webcams par exemple) — et c’est un fait d’importance majeure que les appareils télé-numériques se présentent de plus en plus comme des outils de saisie ou d’enregistrement, mais aussi de lecture et de projection (et même de transfert et d’échange entre projections à usage collectif sur des murs d’immeubles et usage individuel sur des téléphones portables). L’œuvre de Sophie Calle exemplifierait en ce sens un concept qu’un chercheur en sciences de la communication, Dominique Boullier, a récemment proposé pour qualifier l’évolution des relations entre le dedans et le dehors, l’individuel et le collectif, le privé et le public. Il s’agit de l’habitèle. Contrairement à la bulle (de Sloterdijk), l’habitèle implique un couplage du sujet avec son environnement par le biais d’interfaces.

Un autre exemple de ce couplage de l’espace urbain et du mobile, l’installation de l’artiste JR sur les quais de Seine : un système de street audioguide permet aux passants de composer sur leur portable un numéro gratuit pour entendre les interviews et le récit de la vie des femmes qui sont présentées sur des photos de grand format. Certaines de ces applications combinent les technologies de géolocalisation et de réalité augmentée dans un système équipé d’une caméra, d’un récepteur GPS et d’un accéléromètre capable de reconnaître le lieu et l’orientation de l’usager lui permettant ainsi de visualiser à l’écran un espace « augmenté », par la superposition visuelle de contenus.

Ce qui se dégage de l’analyse sommaire des propositions récentes ayant pour objet ces agencements rythmiques d’énonciation de l’œuvre d’art et de la ville, c’est de manière récurrente, la tentative d’articuler le corps social, collectif et la perception singulière des individus, de mettre en résonance contradictoire, en conflit et en relation, perception subjective et décryptage/analyse automatisés du réel, grâce aux dispositifs d’enregistrement et de traçabilité, mais aussi de mesure, de cartographie et d’orientation qui constituent désormais le cadre flottant de nos déplacements et de nos comportements. Comment nos attitudes peuvent-elles dès lors prendre forme, au-delà de la dialectique de l’éphémère et du pérenne, du l’objet et du modèle, de l’œuvre et du lieu, telle que la modernité et même les dernières avant-gardes les ont consacrés dans l’art et le paysage urbain ? Quelle forme l’art contemporain peut-il donner à ce flux continu, cet enchevêtrement de réseaux et d’espaces-temps asynchrones avec lequel nous sommes désormais obligés de composer pour habiter le monde ? Et « habiter le monde en poète » (exigence qui est encore celle d’un Guy Debord), cela se peut-il encore aux conditions de la mobilité et de la portabilité exigée par notre temps ?

À rebours de cette solution de continuité entre le monde réel et le monde des images prophétisée par les apôtres du simulacre, certaines œuvres se présentent dès lors comme des dispositifs asynchrones, ménageant des effets de rupture, des sautes de rythmes dans la relation entre l’espace perçu et l’espace réel dans lequel évolue le spectateur. C’est par exemple le cas avec Massmon Fujihata lorsqu’il travaille les données collectées lors de l’ascension du Mont Fuji de façon à en construire une image déformée en fonction de la vitesse de la marche. Les technologies immersives sont donc ici les vecteurs d’un usage situé à l’opposé de celui auquel les destine leur appropriation culturelle convenue, dans l’idéologie couramment entretenue de l’immersion et de l’interaction : elles apparaissent moins comme la promesse d’une continuité entre le réel et le virtuel, dont l’image viendrait en somme réaliser l’avènement avec la popularisation de la 3D, que comme une anacoluthe dans le discours dominant de l’industrie culturelle qui postule la continuité du réel et de la fiction moyennant un usage de plus massif et démocratisé de la 3D et du principe d’immersion, un accroc dans le tissu de la globalisation culturelle.

L’œuvre d’art contemporaine qui se destine à l’espace public apparaît ainsi de plus en plus traversée et modelée par le paradigme du temps et le conflit des régimes de temporalité actuels, à la fois calculables au plus haut point (ainsi le concept de life time value, qui indexe les possibilités d’une vie humaine sur des durées calculées en fonction de différents critères tels que l’éducation, l’hérédité, la santé, etc.) et fondamentalement incontrôlables (certains experts de la Silicon Valley prévoient même avec la théorie dite de la « singularité », la perte définitive du contrôle des machines par les humains aux alentours des années 2040). Œuvres qui viennent comme en compensation de cette calculabilité généralisée dans laquelle certains voient le destin de l’humanité se résoudre, se rétracter, si l’on ose dire, en une sorte de « téléologie négative » ou sans emploi.

Il n’y a d’ailleurs pas nécessairement de contradiction entre ces deux dimensions de la temporalité : soit l’idée d’un temps qui emporte tout sur son passage et règle les rythmes de chacun sur une sorte d’horloge collective qui tournerait selon le modèle des sociétés d’insectes (canalisant toute expression arythmique ou asynchrone des individus dans la majesté et l’évidence de son propre flux : ce serait là le modèle des freeways californiennes décrites par Baudrillard dans son beau récit — mais un récit désenchanté aussi — de voyage en Amérique (8)), soit au contraire l’idée que chaque être humain particulier se ferait l’inventeur, à travers la complexification croissante des grilles horaires, des emplois du temps, et de la réduction du temps de travail, ou la délinéarisation des flux télévisuels, de sa propre horloge biotechnologique et culturelle. Tel qui roule dans son automobile est ainsi à l’écoute d’un autre monde, plongé dans la profondeur immémoriale de sa culture d’origine (Arjun Appadurai a bien vu cet enchevêtrement des ethnoscapes et des médiascapes à propos des chauffeurs de taxi indiens à New York, dont la diaspora constitue une réalité politique qui a son poids, y compris en Inde même).

C’est là le modèle de certaines œuvres produites sur le mode éphémère comme des scénarios ou des actions scénarisées, qui ne visent à rien moins qu’à ouvrir à la multitude la possibilité d’une expérience singulière du récit, voire du micro-récit — là où domine globalement aujourd’hui l’impossibilité pour les êtres humains de porter librement la parole et le récit de leur expérience propre dans un échange intra-communautaire (encore que certains blogs invitent à relativiser cette assertion), ou alors sous la forme exhibitionniste et artificielle de la téléréalité (9). Ainsi, de cette expérience .walk relatée à nouveau lors du symposium des arts électroniques ISEA de septembre 2010. Au festival Transmediale de Berlin en 2004, ce projet de locative media intitulé .walk (« dotwalk ») avait reçu une mention honorable pour la prestigieuse compétition des « software awards ». Développé par un collectif artistique d’Utrech, Social Fiction, .walk combinait le code informatique et l’exploration urbaine « psychogéographique ». Selon certains observateurs, le succès de ce simple projet est représentatif d’un événement plus important qui prend place dans le monde des arts médiatiques, dans lequel, laissant derrière eux le net art, les locative media s’échappent des frontières de l’écran pour entrer dans la ville. […/…]

Ce que l’on peut dire, c’est que l’art des locative media réalise une forme de convergence entre l’art numérique et l’art urbain. Mais du même coup, il contribue à déstabiliser et l’un et l’autre, voire à la possibilité de leur dépassement à venir ou de leur résolution dans quelque chose d’autre, qui serait comme un art des lieux affranchi de l’opposition du local et du global, un art de la globalisation si l’on veut ; en ce sens, il participe de cette exigence que souligne Grégory Chatonsky, de penser la relation art/technique au-delà du malentendu dans lequel elle s’inscrit depuis toujours par cette double instrumentalisation qu’il dénonce — et en effet , tous ces projets participent de l’idée que l’ordinateur est un écran qui ouvre vers le monde du dehors, et au fond que ses usages artistiques antérieurs tels que le net art seraient dépassés.

Et en effet, l’art des lieux participe d’un processus ancien et continu de délocalisation et de « mobilisation » : du temple vers les haut-lieux sacrés, des hauts lieux vers les lieux du profane, tels les parcs ou les jardins, les monuments ou les places publiques, jusqu’aux lieux en déshérence, aux quartiers abandonnés, ou encore vers les lieux en mouvement que sont les lignes de tramway ou de métro, quand ce ne sont pas les non-lieux que les artistes élèvent alors en les occupant à la dimension d’un « vrai » lieu. Ce qui est en jeu dans un tel processus, c’est, comme l’ont souligné de nombreux commentateurs, la progressive montée en puissance des arts du temps et du rythme dans les arts du volume et de l’espace, à travers l’usage de plus en plus fréquent du son dans de nombreuses installations, mais aussi de l’image animée, ou encore du récit et de la fiction tels qu’ils s’énoncent le long des lignes de tramways ou d’autres formes-trajets.

Mais l’art numérique est lui aussi, on l’a vu, confronté à la nécessité de son propre dépassement, et celui-ci se réalise en effet à travers son intégration progressive au « champ classique de l’art », ou alors à son assimilation plus ou moins conflictuelle au monde contemporain du business, et en particulier du business des cultures numériques. À ces réserves près, on peut dire que ce qui rassemble les œuvres ici évoquées, c’est d’abord qu’elles participent d’un modèle systémique ou systématique de mise en œuvre, qui témoigne de leur filiation avec les littératures à contraintes. Elles fonctionnent comme un système ouvert, mais qui repose sur le postulat d’une grille d’analyse, de lecture, un opérateur ou un embrayeur de mise en œuvre, qui trouve son modèle dans les sciences du contrôle, de la régulation, ou de la planification, comme la cybernétique, la systémique ou la cartographie (ce qui ne pas sans reposer l’éternelle question, surtout s’agissant d’une nouvelle version de la poétique de la ville fondée pour une bonne part sur des techniques de traçabilité, de l’équilibre instable du contrôle et de la liberté).

En conjuguant le réel et sa représentation selon un modèle qui intègre la représentation et la trace au corps même de l’expérience, ces pratiques s’inscrivent dans une filiation littéraire à laquelle on peut aussi associer Stendhal (qui dans ses Souvenirs d’égotisme, dessine les plans des lieux auxquels il lui a été donné de vivre telle ou telle expérience), mais aussi bien sûr Perec ou, comme on l’a vu, les situationnistes — mais c’est alors d’une « pyschogéographie générative » qu’il s’agirait. Un aspect important tient à l’économie des moyens narratifs qu’elles sollicitent ou qu’elles produisent. Jean-Louis Boissier remarque à ce propos la filiation de ces expérimentations avec les schifters dont Barthes avait dans un beau texte évoqué les qualités poétiques éventuelles, telles qu’elles s’expriment dans les énoncés brefs des cartes postales, et dont les actuels SMS offrent une nouvelle version. C’est une même économie de moyens que vise Sophie Calle quand, à propos de son œuvre transports-amoureux.vu, elle déclare aimer le style économique, concis et poétique des messages que l’on trouve dans la presse quand les gens souhaitent se retrouver.

Ensuite, c’est qu’elles procèdent d’un feuilletage du réel, qui se présente en couches, en strates, en cartes dynamiques superposées, ou plans constituant autant de points de vue fragmentaires qui se superposent et s’additionnent à propos d’un site, d’une forme-trajet, d’un « entour », plus qu’ils ne servent à y projeter l’objet perçu dans sa totalité. Elles réalisent en un sens le dépassement de l’opposition entre la vison en surplomb et l’expérience, et la vison trajective comme expérience concrète du lieu et de l’espace, au profit d’un espace dont le modèle serait la vision panoramique telle que l’envisage Bruno Latour (pour Latour, le panorama n’est pas un point de vue surplombant, et extérieur aux autres visions possibles vues d’en bas, à même la ville, il réalise seulement un plus grand nombre de connexions entre les différentes visions possibles, dont il fait lui-même partie, mais à un degré supérieur de synthèse (12)).

Mais il n’est pas possible d’épuiser l’ensemble des points de vue possible à partir de mon champ de vision, et c’est avec une totalité ouverte qu’il me faut composer, une totalité qui ne serait pas tant la somme des parties qu’une partie additionnelle — car il existe toujours la possibilité non seulement d’un point de vue qui m’échappe, mais aussi d’un point de vue à partir duquel c’est une autre réalité qui se dessine dans mon champ de vision : si bien que le « moteur », si j’ose dire de la représentation, ce n’est pas l’œil et l’optique projective de la Renaissance, mais le mouvement et le déplacement, dans des espaces simultanément ou alternativement vécus concrètement et représentés/enregistrés « abstraitement ». Et donc, un troisième trait significatif de cette esthétique du déplacement, c’est qu’elle relève d’un espace de collage ou de recollement, plutôt que d’un espace de projection, espace que Deleuze et Guattari anticipèrent, à travers leur idée du corps sans organe.

En tous ces sens, on serait enclin à penser que c’est finalement le cinéma qui constitue le modèle de cette évolution — mais un cinéma en devenir permanent et dont le centre de gravité est indissolublement situé en arrière-plan de notre temps, du côté de la vieille modernité, et en propulsion vers l’avenir, dans son alliance en cours de réalisation avec le réseau, un cinéma-réseau qui traverse déjà de part en part le processus en cours d’éditorialisation artistique de la ville. Mais cinéma, dès lors, s’entendant en divers sens qu’il faudrait approfondir : à la fois dans le sens du cinéma « installé » de l’art contemporain, et le cinéma délocalisé et comme réticularisé d’aujourd’hui, s’il est vrai que le cinéma s’est lui-même affranchi de la salle obscure qui faisait corps avec son histoire et sa mémoire, et s’est ouvert à des modes de diffusion, des supports et des lieux de plus en plus nombreux et interconnectés (c’est ce dont témoigne en particulier une manifestation comme le Festival des 4 écrans, initié par Hervé Chabalier, et qui repose sur l’idée de repenser la question de l’écran dans sa démultiplication même, entre cinéma, télévision, ordinateur et Smartphone — et les effets qui en résultent quant à la création cinématographique elle-même — dont la multiplication des manifestations et festivals de cinéma consacrés aux très courts formats serait le symptôme (13).

Il ne faut pas non plus oublier la multiplication des projections dans la ville même, la salle obscure s’extériorisant alors dans la vraie vie qui fait son cinéma — non plus d’ailleurs que l’avènement prochain du 5ème écran, qui réalise la fusion du cinéma interactif et des appareils télénumériques de connexion : le 5ème écran comme opérateur d’agencements inédits et interactifs du collectif et de l’individuel dans l’espace urbain, selon une logique de traitement de l’information qui ouvre de réelles perspectives à cette transindividuation qui fait défaut dans l’espace public de nos sociétés (rappelons que la transindividuation chez Simondon, c’est cette invention réciproque du sujet dans sa relation aux autres, à travers les mécanismes d’appropriation et de transformation des schèmes et des objets, en particulier techniques, qui évoluent eux-mêmes à travers ces processus d’échanges individuels et collectifs. Bernard Stiegler a repris ce thème en s’appuyant sur l’exemple de la langue, qui illustre parfaitement ce processus (14) : en effet, dans le cas de la langue, le je et le nous se construisent réciproquement à travers ces jeux complexes de projection et d’appropriation, de locution et d’interlocution, qui ne peuvent exactement se prédire, mais seulement se constater, et s’enregistrer dans un usage de plus en plus intensif qu’en font les uns et les autres; mots et vocables inouïs dans la « société » desquels les hommes se vivent de plus en plus, jusqu’au point où les académiciens ne peuvent ensuite que consacrer cet usage dans le dictionnaire, quand ces mots, comme disaient les classiques, finissent par « faire société ».

Mais aussi du cinéma « augmenté », dans tous les sens que cet adjectif est susceptible de prendre aujourd’hui, à la fois celui de cette montée des simulacres qui forme l’arrière-plan de la pensée critique moderne, de Baudrillard à Jacinto Ligeira, et celui de l’essor de ces villes-fiction, qui de Las Vegas à Dubaï apparaissent comme une expansion fictionnelle du monde, entre artifice et fiction. Et dans le sens enfin du cinéma entendu comme cet art industriel qui se déplace sans cesse sur la frontière entre art et non-art — ainsi que le fait l’art des locative media, qui emprunte à la fois à plusieurs arts, et entend parfois s’affranchir du champ classique de l’art. Et aux yeux des acteurs du monde des locative media, il est question, je cite, non seulement d’un changement de paradigme dans le monde de l’art, mais aussi d’une reconfiguration de notre vie quotidienne dans le sens du renouvellement de notre place dans le monde.

Le réel c’est ce qui fait trou, disait Lacan. Face à cela, le codage d’un même espace vu selon des points de vue différents porte peut-être la chance d’une autre aventure dans la réalité de la ville même, et d’une autre relation entre l’art et la ville — d’une prise et d’une « reprise » artistique dans le tissu urbain, à travers le jeu des vrais et faux raccords entre tous ces points de vue, avec la part de contingence et de « bruit » fatal qui en résulte, et qui seraient, pour reprendre la formule de Duchamp, comme leur commun coefficient d’art. Un art improbable encore, « fait par tous, non par un ».

Norbert Hillaire
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Norbert Hillaire est professeur à l’Université de Nice-Sophia Antipolis où il dirige le master « ingénierie de la création multimédia ». Théoricien et artiste, il s’est imposé comme l’un des initiateurs de la réflexion sur les arts et les technologies numériques, à travers de nombreuses publications, directions d’ouvrages et missions prospectives pour de grandes institutions (ministère de la Culture, Centre Pompidou, Datar). Son ouvrage, coécrit avec Edmond Couchot, L’art numérique : comment la technologie vient au monde de l’art (Flammarion, 2003), fait aujourd’hui référence. Comme artiste, ses photomobiles interrogent les relations entre peinture, photographie et cinéma et sont régulièrement exposées en France et à l’étranger

(1) On lira avec profit à ce sujet l’ouvrage de Jacinto Lageira, La déréalisation du monde : réalité et fiction en conflit, Jacqueline Chambon, 2010.

(2) Voir Thierry Paquot et Chris Younès (Dir), Philosophie de l’environnement et milieux urbains, La Découverte, 2010.

(3) « Contours et alentours », in Œuvre et Lieu, dir. Norbert Hillaire et Anne-Marie Charbonneaux, Flammarion, 2002

(4) Le document de présentation de l’œuvre rappelle l’histoire de la Biennale de Venise et nous enseigne qu’en 1938, les nazis avaient radicalement transformé ce petit hall consacré à l’art selon leurs conceptions architecturales. Ils en firent un bâtiment néoclassique à la façade sévère et rébarbative. En 1964, un réaménagement de l’intérieur a atténué le caractère autoritaire de son architecture. Mais le faire complètement disparaître aurait signifié la destruction du pavillon pour en construire un autre. Or le bâtiment a été classé monument historique. Il représente donc un défi pour les artistes qui y exposent. Quiconque aménage le pavillon allemand — qui jouit du soutien du ministère fédéral des Affaires étrangères — livre aussi automatiquement un commentaire sur l’histoire de l’édifice.

(5) Voir Patrice Maniglier, La perspective du diable, Figurations de l’espace et philosophie de la Renaissance à Rosemary’s Baby, Actes Sud/Villa Arson, 2010. L’auteur développe son analyse à partir de l’œuvre proposée par Laetitia Delafontaine et Gregory Niel, qui se présente comme un duo d’artistes-architectes.

(6) Patrick Raynaud, Giratoire, 1989. Les panneaux indiquent une quarantaine de noms de villes où l’artiste a exposé. Rond-point de Vuers, Villeurbanne.

(7) Marc Augé, Non-Lieux, introduction à une anthropologie de la surmodernité, Seuil, 1992.

(8) Jean Baudrillard, Amérique, Grasset, 1986.

(9) Ou encore sous la forme de ces albums de voyage préconçus dans les nombreuses applications informatiques de nos ordinateurs comme de simples archives familiales à usage strictement privé. Fictions photographiques et récits largement contenus dans les limites de cet ordre narratif surplombant dont le storytelling offre le modèle, mais dont la fiction des parcs de loisirs et même des méga-parcs de loisirs du genre de ceux qui se construisent à Dubaï fournissent un aperçu encore plus spectaculaire.

(10) Mobilisable : nom d’une manifestation qui regroupe L’Ensad (EnsadLab), en coopération avec l’Université Paris 8 (laboratoire Esthétique des nouveaux médias) et l’École nationale supérieure d’architecture de Toulouse, avec le concours la Haute école d’art et de design de Genève (laboratoire Formes de l’interactivité) et de l’University of the Arts in Tokyo (Graduate School of Film and New Media), autour des mutations artistiques qu’impliquent les médias du déplacement et de la localisation, l’émergence du paysage technologique, les nouvelles formes de cartographie et de récit, les nouvelles modalités de la dialectique mobile-immobile, les nouveaux instruments de l’exercice de la mobilité. Le terme mobilisable qualifie alors des formes artistiques et des œuvres, mais aussi de possibles comportements des artistes et du public, de la collectivité engagée dans de tels processus artistiques, scientifiques et culturels.

(11) Grégory Chatonsky, « dialectiques de la singularité de l’art numérique », www.digital-arts-numeriques-diary.be/2010/10/13/art-numerique-description-12/#more-2896

(12) Voir : www.bruno-latour.fr/virtual/PARIS-INVISIBLE-GB.pdf

(13) Voir : www.festival-4ecrans.eu

(14) Voir Bernard Stiegler, « Entreprendre autrement : pour refonder la société comme « milieu associé », in L’Artiste et l’entrepreneur 
(dir. Norbert Hillaire), Cité du Design Editions, 2008.

— avant, avec et après le Web

Jusqu’à la fin du 20e siècle, il était naturel à l’être humain, obéissant à l’ordre conceptuel occidental, de se considérer comme un individu unique, propriétaire d’un nom de famille inaliénable, responsable de ses actes et de l’expression de ses pensées sa vie durant. Si d’aventure, il se livrait aux œuvres de l’esprit, il lui était tout aussi naturel d’être regardé comme l’auteur, c’est-à-dire le propriétaire de ses mots et de ses créations. Ce qui était naturel ne l’est plus. Non que tout cela ait disparu — loin de là, mais les concepts qui constituaient l’identité de l’être humain occidental ont cessé d’être des évidences sous l’effet du Web. L’objet de cet article est d’examiner de quelle manière le concept d’identité, au sens de l’identité civile et métaphysique, a été affecté par le Web.

L’identité avant le Web (1539 – 1993)
Avant le Web, il y avait des vrais et des faux noms. En France, avec l’ordonnance de Villers-Cotterêts (1539), soit 88 ans après le premier livre imprimé selon la technologie de Gutenberg, François 1er impose l’enregistrement des noms de baptême dans les registres de l’Église catholique. La possession d’un nom de famille devient obligatoire. Dans son article 51, le nom est inscrit « en forme de preuve », autrement dit, selon le rapport mathématique classique (À=À), l’identité moderne relie un corps et un nom propre. L’acte de naissance repose alors sur une déclaration et s’établit selon une filiation. Ainsi se construit la distinction entre le « vrai » nom et le « faux » nom — ou pseudonyme. Dans le même temps, l’ordonnance de Villers-Cotterêts impose la langue française à tous les actes juridiques, introduisant alors une double identité : individuelle, par le nom patronymique, et politique, par l’unité de la langue.

Avant le Web, en 1641, Descartes publie en latin puis, en 1647, en français, les Méditations Métaphysiques. Grâce à l’imprimerie, le livre, bien plus répandu que le manuscrit, peut se lire seul et en silence. Destiné à l’apprenti-philosophe, l’ouvrage de Descartes offre une méditation solitaire qui commence par asseoir le moi comme fondement de la connaissance. Auto-centré, le moi échappe heureusement au solipsisme par la preuve ontologique de l’existence d’un Dieu vérace et créateur continuel du monde. Inscrit dans le monde créé par Dieu, le moi demeure une réalité unique et continue à travers le temps. La mémoire de mon expérience et de mes pensées est ainsi fondée. À la suite du moi de Montaigne, le moi cartésien s’écrit dans les livres. Il n’est pas question d’attribuer au seul Descartes ce qui va suivre. Mais une lecture attentive des Méditations montre combien sa pensée a répondu aux attentes d’une époque.

Chez Descartes, la garantie d’une mémoire continue et fiable, non perturbée par un Dieu par essence vérace, lui permet de mener un raisonnement méthodique dans un temps continu et, surtout, de porter par écrit ses méditations. Or c’est parce qu’il est considéré implicitement comme une technologie de la mémoire que le livre imprimé est naturellement le siège légitime de l’expression du raisonnement et de l’intention. Deux siècles auparavant celles-ci se trouvaient encore très majoritairement dans la parole contradictoire et communautaire. Sous l’effet de l’imprimerie, les savoirs s’incarnent dans les livres. Mais il n’en a pas toujours été ainsi et il n’en sera pas toujours ainsi. Il y eut un temps où, au Moyen-Âge, comme le souligne Mary Carruthers (1), le livre n’avait pas les fonctions mémorielles qu’on lui accorde aujourd’hui, il fut un temps où le livre était une machine à penser, comme pendant l’Antiquité, à la façon du Manuel d’Epictète conçu comme une matrice d’exercices spirituels destinée aux novices et dont doit se débarrasser le sage stoïcien.

Avant le Web, il y avait l’individu autonome et socialement responsable né au croisement de la permanence de l’imprimé, du nom patronymique ainsi que de l’unité et la continuité de la conscience. Ces nouveautés conceptuelles répondent aux besoins du capitalisme naissant, qui repose sur le contrat synallagmatique. Un tel contrat n’existe que s’il y a une date de début du contrat, une durée et deux contractants au moins. Le contrat exige que l’écrit soit le garant de la mémoire et que les contractants restent métaphysiquement — et non psychologiquement — identiques à eux-mêmes à travers le temps, une identité métaphysique exprimée socialement par le nom patronymique et traduite symboliquement par la signature apposée sur tout contrat. Par la suite, ce schéma s’étendra à la politique elle-même. L’individu — défini par son identité, sa permanence et son unicité — est l’atome d’une société formée par contrat, tant du point de vue économique que du point de vue politique. Toute la conception moderne du politique reposera sur cette idée. Que l’on renverse le rapport de la société à l’individu demeure une conception de l’individu.

Avant le Web, la structuration du savoir tout entier était articulée sur l’identification de la source de la parole et de la légitimité du nom de l’auteur à parler. Prenez cette phrase de Galilée, le père de la science moderne : « La Nature est un livre ouvert écrit en langage mathématique » [je souligne]. Il n’y a pas de savoir moderne s’il n’est écrit, c’est-à-dire s’il n’est imprimé selon le format du livre et il n’y a pas de livre imprimé sans auteur, sans nom, sans identification, sans responsabilité du discours tenu. L’imprimé lui-même n’échappe pas à l’ordre dont il a été la condition. En retour, la publication d’un livre imprimé légitime son auteur dans un domaine donné du savoir et lui confère une propriété sur ce qui y est écrit. Le livre est un contrat entre l’auteur et la société. Il lui accorde un pouvoir et une propriété en échange d’une responsabilité perpétuelle.

Avant le Web, l’identité est un concept forgé à l’aide d’un postulat juridique (la distinction entre le « vrai » nom et le faux « nom »), d’une théorie métaphysique de la permanence de l’être humain et d’une théorie du contrat supposant l’individu social. Au 17 et 18e siècles, croisant la biopolitique — le réseau de discours et de pratiques du politique sur le corps et la vie, elle inclut la notion de genre (homme / femme). Au 19e siècle, elle s’accompagne d’un processus d’identification technique, avec le bertillonnage notamment. Enfin, dernière étape — mais non l’ultime – selon la logique d’unicité du moi, les techniques d’identification politique (la carte d’identité — émanation du registre des baptêmes puis de l’état civil), l’identification sociale (la carte d’assuré sociale) et l’identification génétique (l’ADN) convergent aujourd’hui vers un seul point, à l’instar des cartes d’identité regroupant l’ensemble des données d’un même corps à l’œuvre dans quelques pays européens (Belgique, Portugal).

Avec le Web (1993 – 2005)
Avec le Web, au 20e siècle, après les dadaïstes, les formalistes russes, les structuralistes et les post-structuralistes, après Michel Foucault et Roland Barthes, l’auteur mourrait une énième fois : l’hypertexte mène tout droit à ce que Roland Barthes définissait comme « la mort de l’auteur », et avec elle à la disparition des notions d’exclusivité et d’autonomie qui jouèrent un rôle majeur dans la formation de l’esprit moderne et la consolidation de la propriété privée (2). L’hypertexte ouvert (le HTTP) comporte en lui-même l’idée du partage, de l’appropriation et de l’expression collective, autant d’effets obligeant à penser une nouvelle fois la notion de l’auteur. Cette fois, il n’est pas question d’invoquer l’auteur propriétaire et bourgeois, ni le rôle du lecteur dans l’écriture. Cette fois, l’auteur est véritablement déclassé. L’hypertexte est l’un des trois éléments fondamentaux du Web, qui repose aussi sur un langage (le HTML) et surtout, sur un mode d’adresse (l’URL). La combinaison de ces trois éléments, associés aux ventes massives de PC et à la stabilisation des systèmes par le mode protégé installé sur le processeur Intel 80286, a permis à l’Internet, devenu public depuis 1983, de devenir le média dominant aujourd’hui. En plaçant l’application dans le domaine public en 1993, le CERN et les inventeurs du WorldWideWeb, Tim Berners-Lee et Robert Cailliau, ont fait don à la planète tout entière des possibilités de l’Internet : n’importe qui peut accéder au savoir de n’importe qui, sans que nécessairement, l’auteur de ce savoir soit connu.

Ne nous méprenons pas. Du point de vue de la communication des machines par l’Internet, ces dernières sont toujours identifiables, même si le fractionnement des messages et son routage ouvrent des marges d’incertitude. Mais du point de vue de l’utilisateur, l’Internet est le réseau de l’anonymat. Avec l’Internet (qui est un réseau de communication de machines à machines), la communication d’homme à homme est d’abord une communication d’homme à machine. Or, sur ce point, dès sa naissance l’informatique a fait naître un possible, celui que l’homme se trouve un jour dans l’incapacité de discerner l’intelligence humaine de l’intelligence de la machine. Cette idée d’indiscernabilité de la nature de l’auteur d’un message (être humain ou machine) a été formulée dès 1950 par Alan Turing dans son article Computing machinery and intelligence (3). Turing propose un jeu (le jeu d’imitation) qui consiste à faire converser à l’aveugle un être humain avec un ordinateur et un autre humain. Si le premier humain n’est pas capable de dire qui est l’ordinateur et qui est l’être humain, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. En fait, aucun logiciel n’a jamais réussi le test de Turing. Cette indiscernabilité de l’interlocuteur est une idée régulatrice, non une réalité. Rapportée à l’Internet, c’est-à-dire à la mise en réseau des machines informatiques, cette idée devient un problème, celui de l’identification des machines. Rapportée au Web, à un réseau infini et indéfini de pages écrites par une infinité d’êtres humains, cette idée devient un fait.

En 1993, paraissait dans The New Yorker, un dessin devenu célèbre de Peter Steiner. On y voit un chien tapoter sur un ordinateur et disant à un autre : On the Internet, nobody knows you’re a dog. C’était il y a trente ans. À cette époque, l’Internet et le Web réalisaient le village global de McLuhan. L’utopie numérique, telle que la décrite Fred Turner (4), en était sans doute à son point culminant. Pour peu qu’on puisse conférer une unité à la cyberculture, ce mélange composé d’informaticiens universitaires, d’écrivains cyberpunks (Gilson, Stephenson, Sterling…), de féministes cyborgs, de consommateurs de LSD, d’anciens hippies versés dans la culture chamanique et hindouiste, voyait avec la constitution du réseau mondial l’établissement d’une conscience universelle et d’une intelligence collective (Pierre Lévy en 1994 (5)), se déployant en une multiplicité de singularités interconnectées, en une déclinaison d’avatars — dont l’origine du mot prend ici tout son sens —, êtres vivants, humains, animaux et végétaux, traversés par une même énergie électrique englobant une planète unifiée. Le moi des Modernes cessait d’être une île (pour reprendre l’expression de Jean-François Lyotard (6)) tandis que les sites Web formaient des archipels dans un océan animé une nouvelle fois par les utopies pirates (Hakim Bey (7)). Dans le même temps, l’Internet était un nouvel espace d’exil, un nouveau territoire, un nouveau monde, voire une seconde vie, pour des êtres humains devenus globalement claustrophobes par la clôture de la planète par les satellites et l’arrêt — provisoire — de la conquête spatiale. L’interconnexion était alors non seulement synonyme de partage, de multiplicités et de libération sexuelle, mais aussi d’exil par la fictionnalisation et l’extension de l’existence.

Avec le Web, le moi est le fruit du partage. En ce sens, le moi connecté cesse d’être le centre de ses représentations pour devenir le centre de la totalité des liens par lesquels il accède à ses représentations. Emmanuel Kant comprenait le sujet de deux manières : 1) comme le centre métaphysique de ses représentations ; 2) comme le sujet psychologique conscient de ses représentations. C’est à ce dernier sujet anthropologique que le nom est rattaché (« Charles a dit que… »). Or, avec le Web, les représentations ne forment pas l’essentiel du moi, ce dernier résidant dans les liens de tous avec tous. Le moi est un être social, écrivait Marx, ce qui aujourd’hui, pourrait se traduire par : le moi est un être connecté… aux machines… aux autres êtres du Web (humains, êtres fictionnels ou encore des machines – les fameux bots communicationnels). Dans L’âge de l’accès (1997), Jeremy Rifkin écrit : La formule de Descartes « Je pense donc je suis » peut désormais être remplacée par une nouvelle devise : « Je suis connecté, donc j’existe ». Avec le Web, chaque corps est inter-dépendant des autres et agit comme un transformateur sophistiqué qui maintient à l’existence le savoir commun. Aux autres corps et aux autres machines, il redistribue l’électricité qu’il a reçue – matière première des machines – selon ses valeurs et sa propre temporalité.

Avec le Web, chaque utilisateur peut se donner un nom et en changer. Qu’est-ce qu’un nom avec le Web ? C’est le marqueur d’une unité de temps. Du point de vue du corps de l’internaute, le Web c’est du temps. Du temps des machines, du temps des requêtes, mais aussi du temps passé par un corps qui remplit un rôle. Or les rôles avec le Web sont multiples. La nouveauté avec le Web, c’est que les noms peuvent être multiples. Pour reprendre Wittgenstein, les noms s’écrivent au fil de la multiplicité des jeux de langage propres au Web et à l’Internet. Dans une même journée, l’utilisateur peut changer de noms autant de fois qu’il le souhaite, en fonction des rôles qui seront les siens, à l’image des fourmis qui changent d’identifiants chimiques lorsqu’elles changent de tâches (8). Il a un nom pour travailler, un autre pour jouer, pour vivre une fiction, un autre pour échanger, commenter, partager, etc. En séparant le discours de son émetteur, en rendant possible la multiplication des identités et l’anonymat, le Web renverse l’ordre du monde moderne construit sur l’identité. Pourquoi définir l’identité par le nom, puisque dans leur multiplicité et leur métamorphose infinie, ces noms identifient, non un individu unique, mais des singularités ponctuelles et éphémères, qui n’existent que le temps d’un rôle.

Avec le Web, une femme peut devenir un homme et un homme, une femme, ou encore un animal ou autre chose. Le « jeu d’imitation » ou test de Turing tire son origine d’un jeu, dans lequel, par des questions / réponses adressées simultanément à un homme et à une femme, un homme essaie de deviner le genre de ses interlocuteurs. Quand on connait le poids du test de Turing dans la théorie informatique, ce n’est pas trop de dire que la question de l’identification homme / femme est au cœur même de la théorie de la communication homme / machine. L’interchangeabilité homme / femme rompt avec l’une des fonctions majeures de l’écriture imprimée. Comme le montre Friedrich Kittler (9) le livre a été l’instrument par lequel la voix maternelle s’est instruite et, dans le même temps, s’est transmise. Kittler écrit que les textes agissent d’une manière savante sur les femmes exactement comme la mère sur les auteurs. C’est ainsi que pendant le Goethezeit (1770 – 1830), selon un cercle érotico-herméneutique, la littérature allemande s’auto-destine aux mères des futurs auteurs essentiellement masculins, qui forgeant et homogénéisant la langue allemande, forment en retour les mères du peuple Allemand… Autrement dit, parce qu’il est un des rouages de la machine culturelle nationale, le livre possède une destination genrée et c’est en étant genré qu’il peut fabriquer une identité nationale.

Avec l’écriture alphabétique, la voix s’écrit en lettres, c’est-à-dire en sons, lesquels ne sont à proprement parler écrits que lorsque leur agencement s’accompagne d’un sens. Avec l’ordinateur, tout type de contenu peut être enregistré par deux signaux élémentaires. L’écrit n’est alors qu’un stock de données qui doit être lu par des machines avant d’être lu par des êtres humains. Si l’on continue d’assigner à la littérature une fonction fabricatrice de la langue commune, et si l’on admet que la littérature est informée par les machines d’écriture, alors il faut admettre que la production et la réception de la langue écrite présupposent aujourd’hui aussi bien le code que la voix maternelle. La femme, génétiquement et culturellement codée, et la machine informatiquement codée sont désormais les deux conditions de la fabrication de la langue. C’est dans cet esprit, me semble-t-il, que fusionnant ces deux conditions, Donna Haraway refuse de penser la femme comme un genre installé dans un rapport binaire à l’homme. Cela reviendrait à jouer le jeu de l’identification et donc de la genderisation de la société. Elle soutient que le moi féminin est au contraire à coder, c’est-à-dire à dépasser dans la mythologie du Cyborg, être hybride à la fois organique et informatique (10). Le Cyborg peut revêtir de multiples formes. L’image d’un corps augmenté et prothétique en est une. L’image du corps en réseau en est une autre. Produite avec le Web, c’est-à-dire avec des êtres dont le genre est indiscernable, l’écriture n’est plus en mesure de produire une identité nationale, bien qu’elle continue à fabriquer la langue commune. Celle-ci et l’idée de nation étant découplées, la question du commun politique se pose en de nouveaux termes. L’absence d’une réponse politique qui permettrait de reconstruire une vie commune à la mesure de l’Internet désoriente les peuples qui lisent et écrivent de plus en plus avec le réseau. En attendant, se développe une réaction politique et culturelle identitaire fondée sur les concepts traditionnels de l’identification (nom, nationalité, sexe).

Avec le Web, l’important n’est pas de savoir qui parle, mais de faire circuler la parole. Corps singuliers, multiples, passant indifféremment d’un nom à un autre, d’un genre à un autre, devenant animal, végétal ou minéral, les corps du Web émetteurs et récepteurs d’écritures informatiques n’ont d’autres choix que de supposer qu’ailleurs, sur le Web, il y a bien quelqu’un derrière la machine. En réalité, un doute est toujours possible. Et ce possible-là constitue le cadre pragmatique de toute communication avec l’Internet, et avec le Web en particulier. Le Web évacue la question du discernement de l’identité pour laisser place à ce qui est écrit. Avec le Web, nous sommes passés d’une valorisation de l’écrit en fonction de son auteur, nommé et marqué socialement et sexuellement (prénom, nom, qualité, genre), à une valorisation de l’écrit par le fait de sa seule circulation, chaque lecteur devenant alors le médium d’un écrit qui peut venir de n’importe où et de n’importe qui. En quelque sorte, l’écrit prend sa valeur non par l’émetteur, mais par le chemin nécessairement bruyant, selon la théorie de Shannon, qui le mène de l’émetteur à la réception universelle. Avec le Web, chacun peut alors écrire, c’est-à-dire faire exister un autre nom, qui pourra d’ailleurs posséder une existence propre, une existence qui ne sera pas nécessairement reliée aux autres noms. C’est ce nouveau mode d’existence que de nombreux artistes, comme Mouchette, ont exploré dans les années 1990, jouant de ce réseau devenu la scène d’un théâtre global et un carnaval de l’espace public communicationnel. Ainsi Douglas Coupland écrivait-il : Internet me fait espérer que dans le futur chacun revêtira un costume d’Halloween 365 jours par an (11).

Dans ces conditions, les mutations de l’identité du moi social et politique appelaient une dramaturgie. Le Web répondait d’une nouvelle manière au désir humain de la création d’être fictionnel. Avec le roman, avec le cinéma, avec le théâtre, il était une nouvelle façon de peupler l’imaginaire humain de personnages. Au-delà du pseudonyme qui n’est que le masque du nom patronymique, il est désormais possible de jouir du plaisir divin de créer dans le monde réel des êtres connectés, des êtres purement fictionnels et hétéronymiques, au sens pessoaien du terme. Ces êtres ont autant de réalité qu’un être qualifié habituellement de réel. Le concept de virtualité est ici inopérant. Comme tous les êtres connectés, ils participent à cet ensemble éclaté et relié qui fait circuler la parole de façon ininterrompue.

En aucune manière, les êtres fictionnels du Web ne se substituent aux humains. En disant qu’ils envahissent le champ de l’existence, qu’ils constituent une forme d’aliénation ou de schizophrénie, on adresse au Web le même type de reproche que l’on faisait jadis aux romans ou aux séries de la télévision. Ces êtres sont des êtres d’imitation, qui fonctionnent dans le cadre du jeu de Turing. Comme le rappelle J.-M. Schaeffer (12), le test de Turing repose sur l’idée que si une imitation ne peut être distinguée de l’activité imitée, il n’y a plus de différence pertinente entre les deux. Or l’incapacité de distinguer deux faits n’implique pas qu’il y ait identité entre les deux. Schaeffer écrit que si le papillon qui ressemble à un rapace était un rapace, il n’aurait pas besoin d’être pris pour un rapace, il aurait au contraire intérêt à ce qu’on ne le prenne pas pour un rapace. Le fait qu’on ne distingue pas la réalité du semblant fictionnel ne change rien au fait qu’il y ait d’un côté la réalité et de l’autre le semblant fictionnel.

Toutefois le semblant n’est pas non-être, il est tout aussi réel que la réalité pour le récepteur, pour le rapace qui voit le papillon. Or, le web n’a supprimé ni les rapaces ni les papillons. Mais tel un rapace, l’internaute ne voit avec le Web que d’autres internautes. Autrement dit, avec le Web, un nom exprimant une existence fictionnelle a autant de réalité qu’un nom exprimant une existence dite « réelle ». Or, dans la mesure où le Web ne fait connaître que les existences que par leurs noms, ces existences sont toutes équivalentes. C’est finalement la limite du moteur de recherche Google, son effet pervers. Google mélange les rapaces et les papillons, pour le bonheur des papillons qui se cachent des rapaces, pour le bonheur des comptes multiples, des pseudonymes et des hétéronymes.

Mais, à la différence d’autres formes fictionnelles, les êtres hétéronymiques du Web participent à l’intelligence et à l’action collective ainsi qu’au maintien énergétique de la nouvelle conscience universelle. Dépendant non seulement de l’esprit, mais aussi du corps de l’internaute qui se métamorphose à leur contact — il suffit d’observer le corps du joueur en réseau pour s’en convaincre —, ils sont joués par l’internaute, comme l’acteur joue un personnage. Pendant un temps donné, il n’est que lui, c’est-à-dire à la fois ce personnage et cet acteur qui, jouant ce personnage, demeure lui-même en mutant. Dans Microserfs (1995), Douglas Coupland écrit : J’adhère à la théorie Tootsie : si vous vous concoctez une méta-personnalité convaincante sur le Net, alors vous êtes cette personnalité. De nos jours, il existe si peu d’éléments pour attribuer une identité à quelqu’un que la gamme d’identités que vous inventez dans le vide du net, le menu de vos « soi » alternatifs, est vous. Un isotope de vous. Une photocopie de vous. C’est en ce sens que l’on peut dire que le Web, espace du jeu d’imitation par définition, est l’espace des métamorphoses permanentes. Répondant point par point à la définition du Web (partage, multiplicité, mutativité et extension de l’existence et des différentes formes d’intelligence), le sujet métaphysique des êtres hétéronymiques est le web lui-même. Si le Web est un espace, il est peuplé d’humains affublés de vrais et de faux noms, d’êtres fictionnels et hétéronymiques et de robots communicationnels et informationnels.

Après le Web (2006 – …)
Telle était l’identité de l’homme occidental et connecté au milieu des années 2000, ou plus précisément avant Facebook. Si les États modernes avaient pu prendre une distance avec les exigences du capitalisme du 21e siècle, ils auraient alors pu proposer de réguler le nouvel espace public d’action et d’intelligence collective en épousant sa réalité, par exemple en proposant un statut juridique à l’hétéronymat (13). Au lieu de cela, depuis plusieurs années, la France, pour ne prendre que cet exemple, s’arme d’un appareil législatif destiné à protéger la notion d’identité telle qu’elle avait été établie depuis ces derniers siècles. DADVSI, LSI, LSQ, HADOPI, LOPPSI, autant de lois qui ont renforcé les procédures d’identification des internautes. Le point d’orgue de cette législation est sans doute le Décret n° 2011-219 du 25 février 2011, application de la Loi Pour la Confiance dans l’Économie Numérique, qui exige des Fournisseurs d’Accès à l’Internet qu’ils conservent pour chaque ouverture de compte — un an après la fermeture des comptes —, l’identifiant de la connexion; les noms et prénoms ou la raison sociale; les adresses postales associées; les pseudonymes utilisés [je souligne]; les adresses de courrier électronique ou de compte associées; le mot de passe ainsi que les données permettant de le vérifier ou de le modifier, dans leur dernière version mise à jour. En d’autres termes, plus le Web dissout la notion moderne de l’identité, plus les États modernes renforcent juridiquement cette notion et étendent les moyens d’identification des internautes. Ainsi, nous rappelle la Quadrature du Net, la Loi n° 2013-1168 du 18 décembre 2013 relative à la programmation militaire pour les années 2014 à 2019 [et notamment son article 20] ouvre la porte à une surveillance largement étendue des informations et documents sur Internet, y compris par la sollicitation du réseau en temps réel, avec la participation des opérateurs de télécommunication et de services Web, pour des finalités dépassant très largement les impératifs de la défense et la sécurité nationale (14).

Tout se passe comme si l’omniprésence du masque et de la fiction dans l’espace public du Web étaient devenus insupportables aux yeux de l’État. Il n’est pas anodin que l’État soit également parti à la chasse au masque dans l’espace public tangible, comme cela a été le cas avec la Loi du 11 octobre 2010, interdisant la dissimulation du visage dans l’espace public. La burqa et l’anonyme sur le réseau menacent, chacun à leur manière, la transparence de l’existence, soit la norme établie du mode de vie occidental (15). Mais qui a intérêt à la transparence ? Pourquoi faudrait-il donc que tout en les hommes soit clair, transparent et distinct ? On pourrait voir, dans le point de vue adopté par les États modernes, et la France en particulier, une sorte de point de vue platonicien visant à éradiquer les êtres fictionnels de la sphère publique. En réalité, l’enjeu est plutôt de réduire le Web à sa dimension marchande. Car, paradoxalement, les êtres fictionnels du Web n’ont pas échappé au sort des existences dans le mode de production capitaliste : ils sont devenus des marchandises. D’avatars polymorphes en métamorphoses créés par des internautes dotés de pouvoirs divins, le peuple du Web s’est transformé en profils pour des cabinets de recrutements et de marketing. Et, le propre d’une logique commerciale est de rendre ses produits les plus visibles possible.

Avec le Web, l’identité était multiple, en d’autres termes, elle était dissoute au regard de sa définition moderne. La frontière entre la fiction et le réel étant floutée, il importait peu que l’on révèle son intimité : Je étant plusieurs, il était une fiction comme une autre. Après le Web, avec Facebook, qui fut le premier réseau social à la mesure du Web, c’est-à-dire réellement planétaire, l’autre n’a plus de place. Dans les premières années de Facebook, son fondateur, Mark Zuckerberg ne cesse de dénoncer les faux profils, et sa société de les traquer par des dispositifs d’identification logicielle. Un réseau social comme Facebook repose sur ses profils, sur la marchandisation de ses données, à des fins publicitaires ou d’anticipations économiques et financières par l’exploitation statistique. Sa valeur reposant sur le nombre de ses utilisateurs, il ne peut se permettre d’avoir des profils fictifs. Depuis que les médias ont attribué une place importante aux réseaux sociaux dans les révolutions arabes de 2012, Facebook et le réseau social Google+ ont cessé d’exiger la fin des faux profils. Ils n’en d’ailleurs plus besoin. Car, tant que l’heure sera à l’auto-marchandisation de soi, le Web se dépeuplera de ses hétéronymes.

La fictionnalisation de l’existence, en effet, n’a pas disparu — comment le pourrait-elle puisqu’elle est intrinsèque au Web lui-même. Mais, sous l’effet des réseaux sociaux, elle se confond désormais avec l’existence patronymique. S’il y a une place pour la fiction, c’est celle du moi redevenu unique et individuel. Autre dimension propre au Web, la notion de partage demeure, elle aussi, un fait. Toutefois, la viralité des mèmes, des phénomènes d’imitation et de reprise (Harlem Shake, Lolcats…) qui se sont surtout développés à partir de 2005, ne vise pas à construire un espace et un temps commun de construction du savoir. Comme l’écrit Limor Shifman : Dans une ère marquée par « l’individualisme du réseau » [network individualism], les gens utilisent les mèmes afin d’exprimer simultanément leur caractère unique et leur connectivité (16). Il est intéressant de relever de quelle manière a évolué la pensée de la psychologue Sherry Turkle, qui a été l’une des premières à évoquer l’expérience de la multiplicité de l’identité ainsi que les méta-personnalités liées aux pratiques du réseau. Dans The Second Self, en 1984, Turkle introduisait l’idée que le rapport homme / machine affecte notre identité. Dans Life on the screen, publié en 1995, elle montrait comment les MUDs (jeux multi-joueurs en réseau) donnent naissance à des méta-personnalités [hétéronymiques] et un dépassement du genre. En 2011, Sherry Turkle publie Alone Together… Alors que le Web nous promettait une vie de partage et une vie collective, il nous laisse en réalité de nouveau bien seuls, en proie à la concurrence entre individus…

La fin du Carnaval a sonné. La nouvelle dramaturgie du Web est à la tragédie. Facebook a inventé l’identité privée — un profil, nourri par auto-divulgation et des mouchards (cookies, boutons…), qu’il publicise à l’envi. À Pékin, l’anonymat est interdit dans les réseaux sociaux (17). Et si la Corée du Sud revient sur le dispositif d’identification des blogueurs qu’elle avait mis en place de 2007 à 2012 (18), c’est que celui-ci est désormais inutile, tant l’identification de l’être internautique fait aujourd’hui l’objet d’une double identification par les États-espions et par les sociétés du Web marchand, les secondes alimentant d’ailleurs les premiers, comme l’ont montré les révélations d’Edward Snowden. Entre ces sociétés et les États, l’objectif est le même (19) : sauver l’identité individuelle. Il ne fait aucun doute que le masque théâtral n’a pas dit son dernier mot. Mais c’est désormais sur le terrain politique qu’il se place, comme en témoignent l’imaginaire autour des Révolutions arabes et la vigueur du masque de Guy Fawkes. Cinq siècles ont été nécessaires à la construction de l’espace public politique dans l’environnement de l’imprimé. La pensée et l’action politique, la construction d’une vie commune, au sein de l’environnement numérique, ne font, quant à elles, que commencer.

Emmanuel Guez
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014
Cet article reprend plusieurs articles rédigés entre 2009 et 2011. Il est placé sous licence libre (CC – BY – SA).

Professeur de philosophie de 1993 à 2006 (en France et en Allemagne), Emmanuel Guez a ensuite été chargé du programme des Sondes à la Chartreuse — Centre National des Écritures du Spectacle (2009-2012). Dans le même temps, il a enseigné la création théâtrale ainsi que les cultures numériques à l’Université d’Avignon. Il enseigne les arts et les cultures numériques aux Beaux-Arts de Paris. Emmanuel Guez est actuellement chargé de la recherche et des projets à l’École Supérieure d’Art d’Avignon. Il y dirige notamment le programme PAMAL (Preservation and Archaeology of Media Art Lab). http://writingmachines.org (théories et critiques) / http://emmanuelguez.info (art et expérimentations).

(1) Mary Carruthers, Le livre de la mémoire. La mémoire dans la culture médiévale, Macula, 2002.

(2) Jeremy Rifkin, L’âge de l’accès, La nouvelle culture du capitalisme, La Découverte, 2000.

(3) http://cogprints.org/499/1/turing.html

(4) Fred Turner, Aux sources de l’utopie numérique, De la contre-culture à la cyberculture, Steward Brand, un homme d’influence, C&D éditions, 2012.

(5) Pierre Lévy, L’intelligence collective : pour une anthropologie du cyberespace, La Découverte, 1994.

(6) Jean-François Lyotard, La Condition postmoderne, Éditions de Minuit, 1979.

(7) Hakim Bey, TAZ, Zone Autonome Temporaire (1991), Éditions de l’Éclat, 1997.

(8) Dominique Lestel, L’animal est l’avenir de l’homme, Fayard, 2010.

(9) Friedrich Kittler, Aufschreibesysteme 1800/1900, Wilhelm Fink Verlag, 1985.

(10) Donna Haraway, Des singes, des cyborgs et des femmes, Actes Sud, 2009.

(11) Douglas Coupland, « Transience is now permanence », in John Brockman, How is the Internet changing the way you think ?, Atlantic Books, 2012.

(12) Jean-Marie Schaeffer, Pourquoi la Fiction ?, Seuil, 1999.

(13) Cf. le Rapport du Sénat de Yves Détraigne et Marie Escoffier, La vie privée à l’heure des mémoires numériques (mai 2009), proposant un droit à l’hétéronymat. Les auteurs s’appuient sur les travaux du programme « Identités actives » de la FING. Voir aussi : hwww.internetactu.net/2009/07/15/lhomonyme-dheteronyme/ (juillet 2009) par D. Kaplan (délégué général de la FING).

(14) www.laquadrature.net/fr/lpm-promulguee-la-derive-du-politique-vers-la-surveillance-generalisee

(15) Matthew Fuller, cité par Geert Lovink, in Networks without a cause, Polity, 2011.

(16) Lifor Shifman, Memes in Digital Culture, The MIT Press, 2014.

(17) www.lemonde.fr/technologies/article/2012/03/16/l-anonymat-proscrit-des-reseaux-sociaux-a-pekin_1670819_651865.html

(18) www.lemonde.fr/technologies/article/2012/08/27/la-coree-revient-sur-un-dispositif-requerant-l-identification-des-internautes_1751758_651865.html

(19) Cf. notamment la déclaration d’Eric Schmidt, le PDG de Google, le 4 août 2010 : Si je regarde suffisamment vos messages et votre localisation, et que j’utilise une intelligence artificielle, je peux prévoir où vous allez vous rendre. Montrez-nous 14 photos de vous et nous pourrons vous identifier. Vous pensez qu’il n’y a pas quatorze photos différentes de vous sur Internet ? Il y en a plein sur Facebook ! (…) La seule manière de gérer ce problème est une vraie transparence, et la fin de l’anonymat. Dans un monde où les menaces sont asynchrones, il est trop dangereux qu’on ne puisse pas vous identifier d’une manière ou d’une autre. Nous avons besoin d’un service d’identification personnel. Les gouvernements le demanderont.

quels enjeux pour l’éducation du citoyen ?

Qu’il s’agisse d’utiliser un GPS pour conduire son véhicule, de consulter un globe virtuel pour préparer ses prochaines vacances sur Internet ou encore de chercher de l’information selon sa mobilité avec un téléphone portable, nous pouvons constater que les outils numériques ont envahi notre vie quotidienne avec leurs lots de cartes, de plans et de traces numériques localisés. Explorant depuis une quinzaine d’années, comme enseignant puis comme formateur et chercheur, les nouveaux chemins de la cartographie numérique, nous proposons de présenter quelques-uns des enjeux majeurs de la révolution géonumérique que nous vivons actuellement.

Révolution géonumérique, de quoi parle-t-on ?
Comme le souligne H. Desbois nous sommes en train d’amorcer une transition géonumérique sans précédent qui tend à révolutionner la nature des cartes et leur place dans la vie quotidienne (1). En devenant numériques, les images cartographiques se sont démultipliées et transformées ; elles relèvent de plus en plus en plus de traitements complexes réalisés à partir de banques d’informations géonumériques. Sur son blog Monde géonumérique, Thierry Joliveau définit la géonumérisation comme le processus de transcription au moyen d’outils informatiques des objets, êtres, phénomènes, activités, images, textes localisés sur la surface terrestre (2). Les informations géolocalisées à notre disposition ont littéralement explosé avec la mise en place du « géoweb » défini comme la convergence des grands moteurs de recherche et des outils de cartographie numérique sur Internet.

On estime que 80% des informations existant dans le monde ont une base géographique, ce que l’entreprise Google a bien compris en proposant dès 2005 un outil de géolocalisation et de navigation cartographique, Google Earth. Depuis cette date, les évolutions techniques ont été nombreuses, qu’il s’agisse des outils de création et de partage de bases de données cartographiques pour des spécialistes ou des applications géolocalisées pour le grand public. En France, le Géoportail (3) s’est imposé comme le « portail d’information des territoires et des citoyens ». Ce site français de cartographie en ligne permet de consulter gratuitement les bases de données cartographiques de l’IGN (Institut Géographique National) ainsi que d’autres données produites par les collectivités locales, sur l’occupation du sol, les risques naturels et technologiques, le bâti, les cartes anciennes… Comme dans Google Maps ou dans Google Earth, on peut aussi y ajouter ses propres informations géolocalisées.

Pour le géographe comme pour le simple utilisateur, il est devenu possible de « géotagger » les images cartographiques issues de ces globes virtuels en ajoutant des commentaires sur ses paysages préférés aussi bien que sur des restaurants ou des lieux touristiques que l’on souhaite recommander à d’autres utilisateurs. Nos plans et nos cartes géographiques, longtemps réduites à deux dimensions, deviennent des espaces en trois dimensions où nous pouvons nous déplacer comme par exemple dans Google Maps avec son outil d’exploration visuelle en immersion, Street View. Avant même de découvrir l’espace réel, nous le parcourons, nous l’explorons et nous le disséquons sous différents angles. Nous utilisons ces « territoires virtuels » pour construire et mettre en forme nos représentations spatiales de sorte que l’on ne découvre que très rarement un espace réel pour la première fois. Ces bouleversements n’affectent pas seulement la façon de construire les cartes que nous pouvons désormais modifier, adapter, transformer par nous-mêmes. Ils touchent également à la manière de lire et de concevoir l’espace.

Avec le GPS et toutes les informations géolocalisées dont on dispose aujourd’hui, on est en train de construire un nouveau rapport à l’espace. En fait c’est l’utilisateur qui crée la carte. On sort de la carte pré-construite, de l’atlas ou du manuel. Sur l’ordinateur, l’utilisateur élabore ses propres cartes en choisissant le type de couches, le degré de zoom, l’angle de vue, la hauteur du relief, le rendu des formes et des couleurs. Il peut même superposer ses propres informations en important d’autres cartes ou d’autres images qu’il a lui-même saisies. Internet nous donne la possibilité d’explorer l’espace à l’aide de globes virtuels qui fonctionnent comme des sortes de doublons numériques de la Terre.

Prenons l’exemple de l’application Google Earth qui donne à voir la Terre vue d’en haut. Par des effets de zooms et de déplacements successifs, ce logiciel d’exploration géographique à partir d’images aériennes en haute résolution et en trois dimensions nous conduit à naviguer « dans » et non plus seulement « sur » la carte. On peut s’interroger sur le statut de ces images cartographiques qui donnent à voir la Terre quasiment « en direct » sans réelle possibilité d’interroger la source et l’origine de l’information géographique. On peut nourrir le même type d’inquiétudes face au risque de surveillance généralisée par les techniques de géolocalisation. Lire et construire des cartes et plus généralement manipuler de l’information géographique constituent de plus en plus un enjeu citoyen.

Cartographier : un enjeu citoyen
Avec l’essor rapide de la géomatique et des technologies de l’information géographique, on observe un regain de réflexion sur la carte et sur ses usages sociaux. La carte est aujourd’hui du côté des citoyens qui peuvent en discuter le point de vue. Qu’il s’agisse par exemple de consulter les riverains concernés par un projet autoroutier ou d’associer les habitants d’un quartier urbain à la gestion de leur environnement, la carte constitue un puissant outil de persuasion, mais aussi un espace de participation, de controverse, en tout cas de débat pour les citoyens. Ces derniers deviennent eux-mêmes des observateurs privilégiés d’une réalité locale et, de plus en plus, des créateurs d’informations.

Le pouvoir de création d’informations géographiques a basculé entre les mains d’individus qui ne sont pas des experts en cartographie. On peut mentionner par exemple des projets collaboratifs comme Wikimapia ou OpenStreetMap (4), qui sont des exemples de réalisations mises sur pied par des communautés d’utilisateurs. Dans certains pays, en particulier aux États-Unis, la mise en place de PPGIS (Public Participation Geographic Information System) témoigne du besoin de certaines communautés de citoyens de collecter l’information par le bas et de prendre part activement au débat public au travers de SIG participatifs. Ces projets de cartographie collaborative donnent aussi des idées aux artistes et aux aménageurs qui proposent des découvertes interactives d’espaces urbains, par exemple à partir de parcours sonores géolocalisés. Il s’agit de s’immerger dans des paysages sonores, de développer une approche sensible de la ville en reconstituant les traces du quotidien (5).

L’accès partagé à l’information géographique semble ouvrir la voie à une « géographie volontaire », où chaque citoyen est potentiellement capteur de données. D’aucuns y voient le triomphe d’une géographie centrée sur les représentations de l’individu du fait que chacun est désormais en mesure de produire et de modeler sa propre information géographique. D’autres au contraire insistent sur le partage et la mutualisation de ces informations sur des sites web collaboratifs. L’émergence d’un Internet participatif du type web 2.0 n’est pas sans susciter des débats autour d’une « néo-géographie ». Sans déboucher forcément sur la naissance d’une « nouvelle géographie », les outils du géographe commencent à se renouveler du fait de la création et du partage de l’information géographique sur le web. Qu’il s’agisse des Systèmes d’Information Géographique (SIG) ou des globes virtuels sur Internet, il semble que la cartographie numérique soit bel et bien devenue un enjeu civique.

Éduquer à la carte et à l’information sur support numérique
Les technologies de l’information géographique ont commencé à franchir le seuil de la classe (6). L’usage des outils de cartographie numérique commence à se banaliser et n’est plus seulement le fait d’enseignants innovants. L’objectif n’est pas tant de former des « citoyens-cartographes » que d’envisager tout le potentiel cognitif des technologies de l’information géographique : la carte doit être véritablement envisagée comme un outil d’investigation dans toute sa dimension heuristique. Le principal enjeu réside dans la visualisation et le traitement de l’information géographique numérique. Nous sommes en effet entrés dans un nouveau paradigme pour la cartographie, celui de la visualisation d’images numériques.

L’irruption massive de ces « cartes-images » n’est pas sans poser de nombreuses questions au géographe. Dans leur toute-puissance de saturation de l’information visuelle multiforme, les outils géomatiques sont susceptibles d’accroître le sentiment d’un accès direct à la « réalité » du monde. Cette emprise est symbolique bien sûr, car la réalité est au-delà de l’image. Mais l’imagerie numérique des SIG et des globes virtuels n’est pas seulement là pour nous offrir une image-réplique ou un doublon numérique de la planète, elle nous plonge dans une réalité « virtuelle » qui donne sens au réel. C’est dans cette virtualité de l’image que l’on peut visualiser les conséquences d’hypothèses, explorer des solutions, mettre en visibilité nos idées.

L’image cartographique n’est pas seulement un mode de représentation du réel, c’est aussi un mode de traitement permettant d’opérer à différents niveaux sur ce réel. En manipulant l’image, en croisant les couches d’information cartographiques, l’utilisateur a accès à différentes facettes d’un espace qui reste malgré tout insaisissable. Peu importe donc que l’usage des globes virtuels fonctionne avant tout sur des formes de pensée inductive, laissant de côté les possibilités de traitement de l’information offerts par les SIG. L’essentiel est que la carte puisse fonctionner comme un instrument de pensée. C’est globalement la question de la construction des savoirs géographiques par la carte, du passage de la représentation graphique aux représentations cognitives. Ce qui conduit à renouveler les pratiques autour de la carte considérée comme instrument de cognition spatiale. Cela nécessite une éducation à la carte, qui passe aujourd’hui nécessairement par une éducation à l’image et à l’information numériques. C’est pourquoi il semble indispensable de relier les compétences cartographiques à l’acquisition de compétences numériques telles que la maîtrise de l’information sur Internet ou le traitement de l’image à travers des outils de cartographie numérique.

La question est de savoir si on souhaite vraiment aller vers une éducation aux usages géonumériques. Actuellement les disciplines sont piégées par le poids de la tradition scolaire. Le téléphone mobile, par exemple, reste strictement interdit au sein des établissements scolaires. Ce qui se comprend notamment pour des raisons de dérives dans l’usage des réseaux sociaux. Face à l’inertie des programmes scolaires, on commence tout juste à introduire les outils géomatiques à l’école. Alors que les élèves utilisent déjà dans leur quotidien ces nouvelles technologies, l’école reste en décalage par rapport à la société.

Aux États-Unis, en revanche, les enseignants se servent de jeux de géolocalisation dans leur pédagogie, comme le geocaching. Cette chasse au trésor numérique en équipes permet d’appréhender l’espace via un parcours ludique et se fait sur le terrain grâce à un GPS et à un téléphone portable avec des outils de cartographie embarquée. Ces jeux géolocalisés commencent à arriver en France avec de nouvelles applications. La géographie scolaire évolue. Avec les QR codes, ces flash codes que l’on scanne dans la ville, d’autres pistes d’utilisation se dessinent du type réalité mixte. Les villes ou les musées s’en servent de plus en plus pour envoyer des informations le long d’un parcours citadin ou dans la découverte d’une exposition. Et les implications éducatives et culturelles sont énormes. Nous ne sommes qu’au début de cette révolution géonumérique…

Les outils géomatiques constituent de nouveaux outils pertinents d’intelligibilité du monde et se prêtent à différentes formes d’apprentissage. Il est nécessaire d’éduquer les élèves aux médias, au droit à l’image, qu’ils acquièrent un regard critique sur ces informations accessibles par tous, aux réseaux sociaux de communication. Il faut également avoir du recul face à la carte. Il est possible par exemple de géolocaliser ses « amis », parfois à leur insu. La question du comment l’école se positionne face aux dérives potentielles est cruciale. Il est important de réfléchir à l’éducation aux usages géonumériques si l’on veut former le citoyen au monde numérique dans lequel nous sommes entrés de plain-pied.

Sylvain Genevois
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Sylvain Genevois est docteur en géographie et en sciences de l’éducation et enseignant-chercheur à l’université de Cergy-Pontoise. Ses recherches portent notamment sur le changement des pratiques cartographiques et le renouvellement de l’enseignement de la géographie, en lien avec les usages sociaux des outils de cartographie numérique (SIG, globes virtuels, outils de localisation de type GPS et jeux géolocalisés). Membre du Comité français de cartographie (commission enseignement) et co-fondateur de l’Observatoire de pratiques géomatiques de l’Institut français de l’Education, il a publié de nombreux articles sur l’usage des outils de cartographie numérique en contexte scolaire.

(1) Henri Desbois, « La transition géonumérique », http://barthes.ens.fr/articles/Desbois-colloque-ENSSIB-Goody-2008.pdf

(2) Blog Monde Géonumérique, http://mondegeonumerique.wordpress.com/

(3) Géoportail : www.geoportail.gouv.fr

(4) Dans Wikimapia, l’utilisateur peut construire ses cartes personnalisées à partir de différentes applications (Google Maps, Bing Maps, Yahoo, etc.) : http://wikimapia.org OpenStreetMap, base de données cartographiques libre du monde : www.openstreetmap.org/

(5) « Cartes sonore et dérivés. Représentations de la chose sonore ». http://desartsonnants.over-blog.com/cartes-sonores-et-d%C3%89riv%C3%89s-repr%C3%89sentations-de-la-chose-sonore

(6) Genevois S. (2008). Quand la géomatique rentre en classe. Usages cartographiques et nouvelle éducation géographique dans l’enseignement secondaire. Thèse de doctorat http://tel.archives-ouvertes.fr/tel-00349413/fr/

 

la création à l’ère d’Internet

Les œuvres d’art numériques – prises comme objet de recherche – constituent un territoire privilégié pour l’analyse conjointe des innovations artistiques et des actions médiatiques contemporaines. L’acte créateur et l’expérience médiatique y sont distribués entre artistes, interfaces numériques, publics et internautes amateurs.

Cet article propose de questionner ce régime « Poïétique » du Net art et d’en éclairer les figures et métamorphoses contemporaines à partir de la relecture d’une œuvre archétypale : le Générateur Poïétique développé depuis le milieu des années 1990 par l’artiste français Olivier Auber. Quelles sont les incidences de la numérisation de l’expérience esthétique ? Quelles nouvelles habiletés des internautes y sont requises ? Permettent-elles une contribution plus active à l’instauration des œuvres ? Comment le régime du « faire faire » propre au Net art s’articule-t-il à une « poïétique » du côté du public ?

Le terme « Poïesis » est chargé d’une longue histoire, au cours de laquelle il fait l’objet de multiples redéfinitions et usages — conceptuels autant que pragmatiques — qui l’ancrent dans divers contextes disciplinaires et écoles de pensée. Il est presque impossible, tant la tâche paraît démesurée, de retracer précisément toutes les variations de signification résultant de ce phénomène que Stengers (1987) a baptisé le « nomadisme des concepts ». Au fil de ses (ré)appropriations successives, cette notion va en effet recevoir des significations largement contradictoires. Pourtant, malgré de lourdes transformations, ce terme demeure incontournable pour la compréhension de l’art numérique tant il est réutilisé par les artistes pour informer leur pratique.

Poïésis et mondes de l’art
Ses origines étymologiques grecques confèrent au terme de Poïésis le sens premier de « création » ou de « production », du verbe « poiein » (faire) qui recouvre des acceptions différentes — voire contradictoires — au sein des écrits philosophiques. La philosophie a en effet principalement insisté sur la différence entre la praxis et la poïésis, y voyant deux formes d’action humaine fondamentalement distinctes : alors que dans la poïésis la finalité de l’œuvre technique est une œuvre indépendante de l’action, la finalité de la praxis se trouve dans l’acte lui-même, l’effet ne s’y distinguant pas de la cause qui le produit.

Dans cette perspective, si la bipartition aristotélicienne ne commet pas encore de distinction entre art et travail, elle clive néanmoins déjà différents genres d’activités et de connaissances humaines. La distinction porte simultanément, 1, sur les choses propres au sujet, soit les « actions » et la connaissance « pratique » (au sens de Kant) — ce niveau définit la Praxis en tant que dispositions à agir accompagnées de règles, impliquant de savoir modifier son comportement —; et 2, sur les choses extérieures au sujet, soit les « objets » et la connaissance « poïétique » — ce niveau définit la Poïésis en tant que disposition à produire, accompagnée de règles recouvrant simultanément le travail, l’artisanat et l’art.

Ce deuxième terme (poïétique), définit chez Aristote le mode de fabrication comme activité ou connaissance menant à l’existence de choses extérieures au sujet. Dès lors, la praxis (action au sens strict) correspond aux actes (politiques ou moraux) valant par eux-mêmes, là où la poïésis (création) correspond au travail compris comme la production d’un bien ou d’un service qui porte par lui-même de la valeur (1). Kant montrera bientôt que l’art, qu’il définit comme un mélange de travail et de jeu, se distingue du travail de l’artisan (2). Plus tard Hannah Arendt (3) divisera à son tour l’activité productive entre œuvre (poïésis) et travail (praxis) : ici, comme chez Aristote, la poïétique se distingue de la praxis par la fin de l’action ou de l’acte qu’elle présuppose.

Selon cette visée (4), la finalité de la poïétique est extérieure à celui qui fabrique, comme à son action, et la fin de la production est alors séparable du producteur. Pour la praxis au contraire, la finalité est interne à l’action dont elle ne peut être séparée, le fait de bien agir étant ici le but même de l’action. Selon cette conception, sur laquelle nous reviendrons, ce qui spécifie l’œuvre vis-à-vis du travail est que celle-ci est tout entière tendue vers une fin : elle est la réalisation d’une activité productive intentionnelle et signifiante, là où le travail n’est qu’action et répétition d’une tâche récursive sans visée de clôture. Aux choses incessamment (re)fabriquées par le travail s’opposent ainsi les Œuvres, au sens strict du terme, comme le produit ou le résultat d’un acte intentionnel inscrit de ce fait dans le domaine de la poïésis. Dit autrement, le travail n’a pour but que d’assurer la satisfaction des besoins sans cesse renaissants, à l’inverse de l’action, qui n’est liée à aucune nécessité biologique ou sociale, et qui donc, n’est point soumise à des impératifs vitaux.

Mais la richesse de l’analyse aristotélicienne résulte principalement de sa tentative de liaison entre science et action : on y trouve en effet plus que de simples dichotomies binaires entre praxis et logos, entre praxis et theoria, entre prattein et poein ou entre praxis et poïesis. Le terme de poïésis introduit ainsi une première acception de l’idée de processus, puisqu’en mettant l’accent sur la production artistique comme œuvre, il souligne et caractérise également « l’acte » lui-même et montre et souligne de ce fait le « travail artistique ». L’acte de production y est intentionnellement et à priori dirigé vers la création d’une œuvre valant par et pour elle même qui, qu’elle soit ou non objectale, apparaît de ce fait comme l’aboutissement de l’acte. Or selon nous, ce postulat de clôture de l’œuvre mérite lui-même d’être reconsidéré. Car avant même qu’il ne soit question d’interactivité ou de participation à l’œuvre de la part du public — éléments qui caractériseront de nombreuses installations en art contemporain, qui vont trouver une radicalisation quasi principielle par la fréquentation des dispositifs du Net art —, les notions d’autonomie et d’étirement temporel de l’œuvre viennent relativiser ces premières propositions.

Poïésis ou partage de la génération artistique
Le Générateur Poïétique d’Olivier Auber (5) présente une figure idéaltypique de ce rapport aux œuvres d’art orchestré par un dispositif élaboré de captation du public. Inspiré du « jeu de la vie » de Conway (1976) le Générateur Poïétique permet à un grand nombre de personnes d’interagir individuellement en temps réel sur une seule et même image collective. Il s’agit en effet d’un jeu graphique où chaque joueur qui se connecte dispose d’un petit carré juxtaposé à celui des autres joueurs. En plaçant ses pixels colorés dans l’espace qui lui est alloué, en les juxtaposant à ceux des joueurs connexes ou en faisant écho au dessin des autres joueurs, chacun contribue à la réalisation d’un dessin collectif qui est constamment en évolution.

La participation à cette expérimentation collective en temps réel est orchestrée par un contrat très contraignant, nécessitant de la part des internautes une disponibilité et une implication importante. L’annonce de l’événement se fait par E-mail et engage une prise de rendez-vous ponctuel visant à partager dans le temps et dans l’espace la réalisation d’une image collective. Le Générateur Poïétique permet ainsi à plusieurs individus de se connecter à un moment donné sur un site, dont le lieu et l’heure du rendez-vous avaient été préalablement fixés par courrier électronique. Chaque participant doit avoir, suivant les recommandations préalables de l’artiste, procédé au téléchargement, à l’installation et apprentissage d’un logiciel de dessin bitmap. Respectant l’heure du rendez-vous soigneusement consigné dans son agenda, l’internaute est invité à rejoindre d’autres participants anonymes dans l’objectif d’un dialogue interfacé.

Le résultat est ici le processus de communication lui-même, à travers l’action collective de composer une image. Autrement dit, l’action de chacun, visible simultanément par l’ensemble des participants, y détermine l’état de l’image à un instant donné, comme résultat de l’action de tous. Le Générateur Poïétique laisse ainsi entrevoir deux mouvements dont le titre même indique très bien la voie : 1, l’œuvre se trouve moins dans l’image que dans le dispositif qui l’a fait exister; 2, le processus collectif importe ici bien plus que le résultat. Il y a bien un générateur qui renvoie au dispositif de création au sens pragmatique du terme dont nous avons préalablement restitué le caractère polysémique. Mais ce générateur est poïétique, dans le sens où aménage bien une action artistique nouvellement partagée avec le public. C’est donc à l’articulation pragmatique de ces deux notions — dispositifs et poïésis — qu’invite l’artiste Olivier Auber.

À cet égard, le terme de poïésis est lui-même augmenté d’une perspective dynamique, visant à rendre compte de l’histoire, ou du devenir — au sens de la genèse —, de l’œuvre d’art. Mêlée au souci de saisir l’activité plutôt que l’objet lui-même, cette nouvelle injonction ne manque pas de souligner le caractère processuel de l’œuvre : ses investissements et changements successifs, engageants des objets et des humains au cours de la pratique. Le quatrième chapitre de la sixième partie de l’Éthique à Nicomaque d’Aristote, décrivait déjà ainsi l’historicité des choses poétiques : les choses qui peuvent être autres qu’elles ne sont comprennent à la fois les choses qu’on fait et les actions qu’on accomplit.

Ce qui, autrement dit, vise à (Ré)introduire au cœur de la pratique artistique le contingent « devenir » de l’œuvre. Dès lors, si la disposition artistique à produire concerne toujours un devenir : s’appliquer à un art, c’est considérer la façon d’amener à l’existence une de ces choses qui sont susceptibles d’être ou de ne pas être, mais dont le principe d’existence réside dans l’artiste (le facteur) et non dans la chose produite. L’art en effet ne concerne ni les choses qui existent ou deviennent nécessairement, ni non plus les êtres naturels, qui ont en eux-mêmes leur principe. Ce double attachement au devenir de l’œuvre ainsi qu’à l’activité dans lequel il s’origine est alors ce qui fait la spécificité de la Poïésis : un accident de la nature produit par l’homme. Mais si ce modèle réintroduit bien une certaine dynamique de l’activité artistique, il se déplace sans doute trop hâtivement de l’œuvre vers son producteur, sur lequel est désormais focalisée l’attention analytique. Néanmoins, cette analyse présente pour nous l’intérêt de déplacer la causalité du phénomène « œuvre d’art », d’une causalité naturelle vers une causalité technique ou culturelle, et simultanément, elle permet d’analyser la multiplicité des rapports à l’œuvre rapportés aux différents temps de sa réalisation.

D’une portée heuristique analogue, la relecture des travaux de Paul Valéry paraît offrir, en regard de la vision « contextualisée » et instrumentale qu’ils promeuvent, des éléments de compréhension de la pratique poïétique immédiatement transposables aux contextes médiatiques contemporains. À travers ses Cahiers notamment, Paul Valéry apparaît rétroactivement comme le penseur d’un certain pragmatisme. La science expérimentale de Paul Valéry (1871-1945) promeut ainsi une Poïésis (6) « en projet », un « esprit de laboratoire » qui sous-tend : d’une part, l’étude de l’invention et de la composition, le rôle du hasard, celui de la réflexion, celui de l’imitation, celui de la culture et du milieu ; d’autre part, l’examen et l’analyse des techniques, procédés, instruments, matériaux, moyens et supports d’action (1937).

À l’écart des qualifications du génie artistique et de l’art comme œuvre « d’inspiration » — qui réifient la conception de l’objet-œuvre ontologique, rendu par là même hermétique à toute investigation analytique — Valéry suggère d’appeler poïétique la science (à venir) des processus de création. Ainsi focalisée sur les coulisses de l’œuvre, l’analyse de la créativité montre alors le travail artistique en situation, c’est-à-dire les moyens et modalités de l’action artistique et de la mise en œuvre d’art. L’accent est porté sur les activités humaines, aux prises avec des techniques et des objets dans le but de faire œuvre d’art : tout est en présence, tout en échanges mutuels et modifications réciproques (…) une intelligence qui organise un savoir en s’organisant elle-même (7). Inaugurant de la sorte une (pré)science de la transformation et de la variation, ces recherches engagent une combinatoire de pensée et d’action où la méthode fait successivement appel à des modèles empruntés aux mathématiques — envisagée désormais comme une science des relations (la topologie, les groupes, la probabilité) —, ainsi qu’à la physique (la thermodynamique, l’électromagnétisme et plus tard, la relativité).

Pré-sciences constructivistes dans le sillon desquelles on peut lire une anticipation des modes relationnels du Net art, où : le système observant se construit en permanence dans et par l’interaction du sujet observateur-modélisateur et du phénomène observé et donc expérimenté (Le Moigne, 1994) (8). En substituant ainsi au postulat d’objectivité, un postulat de projectivité. Ce déplacement analytique reconduit un « art de penser » qui n’est pas celui de la logique déductive qui ne produit qu’une sorte de « reconnaissance platonicienne », mais celui qu’exprime l’exercice de « la découverte dans le construire », de la raison s’exerçant à transformer, à distinguer et à évaluer (…), cette démarche visant à rendre compte d’une activité de conception selon laquelle la pensée du moyen pour construire devient le moyen de penser (Signorile, 1999).

Ce constructivisme valeyrien est ainsi rattaché aux (dites) « nouvelles sciences » de l’action et de la cognition, dont le dessein consiste à saisir la complexité des activités de connaissance et de création. Aujourd’hui, de nouveaux courants de recherches font usage de ce texte, parmi lesquels on trouve entre autres tout un pan de la biologie contemporaine et des sciences cognitives : un système autopoïétique est organisé comme un réseau de processus de production de composants qui (a), régénèrent continuellement par leurs transformations et leurs interactions le réseau qui les a produits, et qui (b), constituent le système en tant qu’unité concrète dans l’espace où il existe, en spécifiant le système topologique où il se réalise comme réseau (9).

Poïésis et numérisation de l’expérience esthétique
Le concept touche également tout un pan des sciences humaines, dont la sociologie de l’action et des innovations où il assigne à l’analyse de la pratique artistique une dimension pragmatique. La poïétique peut trouver une résonance dans cette volonté croissante de compréhension de la « pratique » artistique ou du travail artistique. À condition d’éviter l’écueil de la dissymétrie analytique dont sont empreintes de nombreuses études de sociologie de l’art : entre d’une part, l’examen des conditions sociales de production et de réception du fait artistique, et de l’autre, l’étude d’une esthétique de l’œuvre ontologique (10).

À l’instar aujourd’hui de nombreux sociologues de l’art qui ont souligné ce double écueil consistant à chercher les causes du phénomène esthétique dans ses conditions sociales externes (les déterminismes sociaux), ou dans l’œuvre « en elle-même ». Ce que recouvre la double interprétation controversée de l’art comme reflet du social (approche externaliste) ou de l’art comme révélateur du social (approche internaliste). Dès lors, à l’écart des points de vue herméneutiques ou esthétiques (11), la Poïétique du Net art doit être attentive aux déplacements que cette pratique de conception partagée entre artistes et informaticiens, dispositifs techniques et publics, promeut notamment quant à la localisation de l’œuvre (sa dis-location). Les modalités de sa désignation et de ses appropriations, cadrées tout à la fois par le contexte et la situation de production, sont sans cesse (re)ajustées dans le cours de l’action.

Couplée au contexte de production du Net art, la poïétique semble davantage cet « entre-deux » qui, du fait de son manque à caractériser une fois pour toute l’œuvre, l’artiste et le public, suivant des rôles et des positions à priori, permet de concentrer l’examen sur la circulation des uns vers les autres. En ce sens, il s’agit bien davantage ici d’usages — ou de pratiques (12) — inscrits dans et autour des « objets artistiques » dont il peut être parfois difficile de dire à priori s’ils sont l’œuvre, sans examiner comment (où et pour qui) ils font faire l’œuvre. La poïésis n’apparaît pas ici strictement séparée de l’action, elle en déploie au contraire les possibles en créant un espace d’opération (ou d’expérimentation) qui conduit à ce qu’une chose (un objet, une image, un mot) ne soit jamais donnée pour ce qu’elle est (isolément), mais pour ce qu’elle peut être (dans une relation).

L’entre-deux du dispositif poïétique réintroduit en effet une certaine plasticité entre l’idée d’une structure ou d’un ordre homogène et l’approche réticulaire mettant en évidence le flux généralisé des ensembles complexes ouverts, plus proches de l’indifférencié ou du chaos. Et par conséquent, le dispositif poïétique oscille entre l’idéalisation d’une production esthétique délimitée, attribuable à un auteur singulier, porteuse de sa facture et de sa sensibilité individuelle, et le produit des usages qu’elle génère, résultant de ses appropriations et expérimentations par autrui. Ces dernières pouvant travestir et altérer considérablement la forme et les significations initialement déposées par l’artiste.

Le mouvement pragmatique montre ainsi que l’objet œuvre n’est pas une entité pleine des intentions de son auteur qu’elle ne ferait que traduire, et son destinataire n’est plus le récepteur vide et passif de ses effets préfigurés qu’il ne ferait qu’épouser pour mieux en contempler l’équilibre (13). À l’opposé, ce n’est pas plus le regardeur qui fait l’œuvre, envisagée comme une entité organique disposée par un créateur démiurge et désintéressé. Ces deux acceptions sont des visions idéalisées, qui ne peuvent surgir qu’a posteriori et qui ignorent les multiples activités et ajustements qui concourent à la construction collective d’une stabilité toujours éphémère des énoncés et des formes. Créer au sein d’un langage constitué cet « espace d’interprétation » revient en effet à faire œuvre de poïétique : en délogeant les formes de leur « résidence » habituelle pour les entraîner dans un ailleurs, un au-dehors expérientiel de l’œuvre.

Jean-Paul Fourmentraux
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Jean-Paul Fourmentraux est docteur en Sociologie. Maître de Conférences. Habilité à diriger des recherches (HDR) à l’Université de Lille (laboratoire Geriico) et à l’École des Hautes Études en Sciences Sociales de Paris. Il est l’auteur des ouvrages : Art et Internet, CNRS Éditions, Paris, 2010 –, Artistes de laboratoires, Hermann, Paris, 2011–, Art et Science (dir.), CNRS éditions, Paris, 2012–, L’Ère post-media, Hermann, Paris, 2012–, L’œuvre commune, affaire d’art et de citoyen, Les Presses du réel, Dijon, 2013–, L’œuvre virale, La Lettre Volée, Bruxelles, 2013.

(1) Autrement dit, selon Aristote la poïésis est (1) « action de faire » en fonction d’un savoir, et (2) production d’un objet artificiel, posé en dehors : une œuvre.

(2) L’art se distingue aussi de l’artisanat; l’art est dit libéral, l’artisanat peut également être appelé art mercantile. On considère le premier comme s’il ne pouvait être orienté par rapport à une fin (réussir à l’être) qu’à condition d’être un jeu, i.e. une activité agréable en soi; le second comme un travail, i.e. comme une activité en soi désagréable (pénible), attirante par ses seuls effets (par exemple, le salaire), qui donc peut être imposée de manière contraignante. Kant, Critique de la Faculté de Juger, Folio Essais, p.43

(3) Arendt, H., La condition de l’homme moderne, Presses Pocket. 1983.

(4) On peut lire chez un nombre important d’auteurs — Kant, Montaigne, Rousseau — les conséquences de cette distinction fondamentale entre la praxis (action productrice, plus ou moins aliénante) et la poïésis (expression de soi, plus ou moins pure et libre). La poïésis — qui a donné son nom à la poésie — qualifiant ici l’activité libre (et créative) de l’être humain qui n’est pas subordonnée aux contraintes de la subsistance.

(5) Olivier Auber, Générateur Poïétique, http://poietic-generator.net; Olivier Auber, « Du générateur poïétique à la perspective numérique », Revue d’esthétique 39, 2001; Anne Cauquelin, Fréquenter les incorporels. Contribution à une théorie de l’art contemporain, (p.107), Paris, PUF, 2006.

(6) Cf. Patricia Signorile, Episteme et Poïésis, en projet… : ou l’esprit de laboratoire dans les Cahiers de Paul Valéry, In Rencontres MCX, « Pragmatique et complexité », 17 et 18 juin 1999. > www.mcxapc.org/ateliers/21/doc8.htm. Voir également, Patricia Signorile, Paul Valéry, philosophe de l’art, Vrin, 1993.

(7) Paul Valéry, Cahiers, éd. C.N.R.S., Vol. XIII, p. 273

(8) Cf. Jean-Louis Le Moigne, Le Constructivisme, tome I, Des fondements, ESF édition, 1994, pp. 122-123.

(9) Francisco J. Varela, Autonomie et connaissance : essai sur le vivant, Seuil, coll. La couleur des idées, Paris, 1989, p.45.

(10) De nombreux sociologues ont souligné, à la suite de Pierre Bourdieu (Les règles de l’art, 1992), la nécessité de dépasser ce double écueil de la « première » Sociologie de l’art, pour s’intéresser à l’acte artistique ou aux médiations de l’œuvre, et parfois (plus timidement) à l’œuvre « elle-même » : voir notamment Passeron, J.-C., « Le chassé-croisé des œuvres et de la sociologie », In Moulin. R., Sociologie de l’art, L’Harmattan, coll. Logiques Sociales, 1986. Hennion, A., La passion musicale : une sociologie de la médiation. Paris, Ed. Métailié, 1993. Péquignot, B. Pour une sociologie esthétique. Paris : Éditions L’Harmattan, 1993. Heinich, N. « Pourquoi la sociologie parle des œuvres d’art et comment elle pourrait en parler ». Sociologie de l’art, n°10, p.11-23, Éd. La lettre volée, 1997.

(11) Le terme d’Esthétique est inventé au 18ème, par Baumgarten, un disciple de Leibniz, d’après l’étymologie « aisthétikos » (qui peut être perçu par les sens); ce dernier visait à classer l’art ou les beaux-arts dans le domaine de la connaissance, en leur donnant une place intermédiaire entre la pure sensation (confuse, obscure) et le pur intellect (clair et distinct). Chez Kant, l’esthétique désigne la réflexion sur le beau et sur le goût; chez Hegel, il comprend la philosophie de l’art en général.

(12) Par exemple selon Jacquinot-Delaunay (1999), si les notions d’usage et de pratique sont souvent employées indifféremment cela ne devrait pas nous faire oublier que l’un est plus restrictif que l’autre : l’usage renvoie à la simple utilisation — fut-elle d’une machine complexe — tandis que la pratique intègre à cette dimension, les comportements, les attitudes et les représentations, voire les mythologies, suscités par l’emploi des techniques — dont la pratique Internet rend particulièrement bien compte à l’heure actuelle. Cf. Jacquinot-Delaunay, G., Monnoyer, L. (dir.). « Le dispositif. Entre usage et concept ». Hermès, n°25, p.10. Édition du CNRS, 1999.

(13) Cf. Hennion, A., Méadel, C., Les ouvriers du désir : du produit au consommateur, la médiation publicitaire, In Beaud, P., Flichy, P., Pasquier, D. et Quéré, L., (ed.), Sciences de la communication, pp.105-130. Paris, Réseaux-Cnet, 1997.

culture des fans et industrie médiatique

Un des enjeux actuels des sciences humaines et sociales est de saisir les changements sociaux et technologiques qui irriguent en permanence nos sociétés. Plusieurs sociologues s’intéressent à ces questions en réfléchissant sur la manière dont les sciences humaines peuvent penser les changements mis en œuvre par les sciences et les techniques, qui feraient que nous serions passés d’une société moderne à une société postmoderne. Comment les sciences humaines peuvent-elles supporter l’épreuve du changement ? Quel regard doivent-elles porter ? Comment penser la place et le rôle des individus dans des technologies et des médias qui se veulent être ou du moins apparaître comme participatifs ?

Depuis plusieurs années, avec la multiplication des supports médiatiques et numériques, les universitaires des Medias Studies mettent au cœur de leurs analyses la « culture fan ». Les travaux de l’américain Henry Jenkins en sont particulièrement représentatifs. Pensant les médias, les transmédias, leurs changements et leurs impacts dans la vie des individus, Jenkins propose au lecteur un cadre théorique permettant de comprendre les réseaux qui se créent entre les individus, les médias et l’industrie du divertissement. Il nomme ce cadre théorique la « culture de la convergence ».

En 2013, pour la première fois en France son ouvrage Convergence culture : where old and new media collide, est publié traduit aux éditions Armand Colin sous le titre : La culture de la convergence : des médias au transmédia. Intéressé par les flux médiatiques gravitant autour d’émissions télévisées (American Idol, Survivor aux États-Unis) ou encore des films cinématographiques (Matrix, Harry Potter, Star Wars), Jenkins s’intéresse au rôle de plus en plus grandissant et participatif des fans, mais aussi aux réactions et stratégies développées par les industries du divertissement pour accompagner et irriguer l’explosion d’une culture fan toujours plus participative et impliquée dans le déroulement et la prolongation des émissions et films.

Pour lui, la convergence est un mot qui permet de décrire les évolutions technologiques, industrielles, culturelles et sociales en fonction de qui parle et de ce dont les locuteurs croient parler (1). Il perçoit la convergence avant tout comme un changement culturel qu’il propose de conceptualiser à travers trois notions centrales : la convergence médiatique, la culture participative et l’intelligence collective. En plus de saisir les changements à l’œuvre dans les médias, la force conceptuelle de Jenkins est d’opérer un renversement du regard quant aux fans.

Ses travaux entérinent ce changement : celui de les considérer comme des individus actifs et producteurs. Il prolonge les essais philosophiques et sociologiques de Michel de Certeau qui consiste à voir dans les pratiques culturelles populaires des formes de résistance à la hiérarchie sociale et politique, et ici médiatique. Jenkins souligne bien les limites de cette résistance en le cantonnant à la sphère médiatique et non civique et politique. À l’heure du numérique, les fans des émissions de télé réalité ou de films utilisent dans leurs intérêts l’ensemble des technologies à leur disposition afin de nourrir et de partager leur passion. Tout autant que les industries médiatiques, les fans sont au cœur de la circulation des contenus médiatiques. Ce sont eux qui participent à la promotion et à la circulation d’univers complets (ce que Jenkins nomme le transmedia storytelling).

Cependant, il ne faut pas oublier le rôle dominant des industries de divertissement qui imposent les programmes, les utilisations médiatiques et cherchent à maîtriser les pratiques des fans afin de promouvoir leur chaîne, leur marque et développer leur profit financier. Il semble essentiel de rappeler que si la culture des fans est de plus en plus reconnue comme participative et intelligente, les sciences humaines et en particulier la sociologie ne doivent pas mettre de côté leur sens critique et montrer, tel que le fait Jenkins, que cette convergence culturelle est représentée malgré tout sous la forme d’une hiérarchie verticale.

Les entreprises médiatiques mobilisent de plus en plus une économie émotionnelle et affective qui ne doit pas faire oublier la société du spectacle dans laquelle nous vivons et qui semble être un élément résistant à l’épreuve du changement culturel, social et technologique. Le spectacle est le moment où la marchandise est parvenue à l’occupation totale de la vie sociale, notait Guy Debord dans La société du spectacle (2). Et à Jenkins de noter à la fin de son chapitre consacré à l’émission de télé crochet American Idol : le public a, de son côté, encore un long chemin à faire pour exploiter les points d’entrée qu’offre l’économie affective à l’action collective et à la critique du comportement des entreprises (3). Les Medias Studies offrent donc aujourd’hui une réflexion essentielle quant à la place et au poids des fans et de l’industrie médiatique.

Laure Ferrand
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Laure Ferrand est Docteur en sociologie, Université Paris 5, Laboratoire du CEAQ (Centre d’Étude sur l’Actuel et le Quotidien). Responsable du GREMES (Groupe de Recherche et d’Étude sur la Musique Et la Socialité). Chargée de cours à l’Université de Tours.

(1) Jenkins H., La culture de la convergence. Des médias au transmédia, Paris, Armand Colin, 2013, p.22.

(2) Debord G., La société du spectacle, Paris, Gallimard, 1967.

(3) Jenkins H., La culture de la convergence. Des médias au transmédia, Paris, Armand Colin, 2013, p.110.

Le 8 décembre 2013, Mehdi Belhaj Kacem (2), lors de la séance introductive de son séminaire sur le nihilisme, formulait, sur le ton de la boutade il est vrai, son impatience à ce que la science arrive enfin à ressusciter Platon, Descartes et Spinoza, sur la base de quelques reliques d’ADN que ces illustres personnages auraient laissé ici ou là.

Que cela puisse faire l’objet d’une boutade implique que, déjà bien ancrée dans notre imaginaire collectif, existe l’idée selon laquelle un être vivant peut être entièrement codé, numérisé, par son ADN. C’est en fait un lieu commun de nombreux produits culturels, films, romans à succès ou jeux vidéo, alors même que, dans la communauté scientifique, rares sont ceux qui soutiennent que le phénomène de la vie puisse se réduire à quelques dizaines de milliers d’instructions (gènes) contenues dans notre patrimoine génétique.

Wanted : advanturous women to give birth to Neanderthal man (3)
Mais il est vrai que cette même communauté scientifique, pour toute sorte de raisons plus ou moins avouables, aime entretenir l’ambiguïté. Ainsi, en 2012, George Church, l’un des acteurs de premier plan de la biologie synthétique (professeur à Harvard aux allures de sympathique père Noël, il n’oublie pas de faire fructifier son expertise dans plusieurs start-ups médicales), expliquait, dans une interview au magazine Der Speigel (4) reprise ensuite de manière virale sur le net, qu’il ne lui manquait essentiellement plus qu’une mère porteuse pour donner naissance au premier bébé néandertalien depuis 30.000 ans (toujours sur la base de reliquats d’ADN). George Church n’est a priori pas un spécialiste, ni de la reproduction ni du clonage animal, et les experts sont unanimes, une telle opération est, pour de multiples raisons, tout à fait hors de portée des techniques actuelles ou même simplement actuellement envisageable. Il s’agit probablement pour Mr Church de créer le buzz et de mettre en valeur les bien réelles compétences de ses équipes dans les techniques d’édition de l’ADN. Dans une communauté scientifique toujours plus soumise à la pression de la compétition, de la publication et des brevets, et dont la recherche principale est celle des financements, les chefs de labos sont devenus experts en storytelling, et ce genre d’écart de langage est devenu commun et accepté. Les scientifiques savent lire entre les lignes, mais l’impact sur le grand public est incontrôlable. S’alimente ainsi le fantasme d’une numérisation du vivant, croyance populaire dont on peut par ailleurs se demander si elle ne sert pas des intérêts mercantiles dans les sphères de la médecine (où l’on doit convaincre du bien-fondé des nouveaux tests et médicaments commercialisés) ou de l’agro-industrie (où l’on doit faire passer l’idée que l’on a une bonne maîtrise des techniques OGM).

En décembre 2013, à l’heure où ces lignes s’écrivent, la société 23andMe fait les gros titres des journaux suite à ses démêlés avec la FDA, l’agence de sécurité sanitaire américaine. Cette affaire est emblématique du statut de la biologie à l’heure de l’économie numérique. 23andMe commercialise auprès des particuliers, via Internet et à des prix très accessibles, des offres de séquençage du génome, et proposait l’accès en ligne à divers services de génomique personnelle (5). Concrètement, contre l’envoi d’un peu de salive et de 99 USD, on obtenait quelques indications sur d’éventuelles prédispositions à certaines maladies, celles que l’on peut relier statistiquement à l’état de tel ou tel gène. C’est la difficulté de l’interprétation de ces statistiques, due au fait que les prédispositions sont la plupart du temps très ténues, voire non significatives, qui motive l’avis de la FDA : il y aurait danger à (sur)interpréter ces données sans l’avis d’un spécialiste. Danger, par exemple, de prendre des mesures préventives inadaptées (telle une double mastectomie). En réalité, 23andMe, suivant en cela les comportements au-dessus de lois de certaines majors du numérique auxquelles elle est d’ailleurs historiquement reliée, a, au fil des années, sciemment négligé les rappels à l’ordre de la FDA, et l’on peut soupçonner que le but ultime d’une telle compagnie n’est pas de vendre un service au particulier, mais bien de constituer, sur le modèle de Facebook, Google ou Apple avec les données personnelles de leurs clients, une formidable base de données génétique, qu’il sera bien temps de valoriser plus tard.

Le paradigme numérique en biologie et l’ingénierie du vivant.
Les inquiétudes de la FDA à propos de 23andMe sont à placer dans le contexte plus général de la montée en puissance d’une forme de réductionnisme génétique en médecine et en biologie. Depuis la découverte, en 1953, par Francis Crick, Rosalind Franklin et James Watson de la structure en double hélice de l’ADN, la biologie s’est peu à peu recentrée autour de ce que Crick lui-même a nommé le « dogme central de la biologie moléculaire » (6). Il s’agit d’un modèle qui décrit comment, en première approximation, l’information génétique contenue dans l’ADN est transmise, reproduite, interprétée en protéines, etc. Ce modèle simplifié, bottom-up, où l’on cherche à expliquer la construction et le fonctionnement d’un organisme macroscopique en fonction d’instructions élémentaires microscopiques, assemblées linéairement comme dans un programme caché au plus profond des cellules, conduit naturellement à développer une analogie avec l’informatique. Le vocabulaire en vogue dans certaines branches de la génétique en fait foi : on parle non seulement de programme génétique, mais parfois même de machine de Turing et de système d’exploitation (pour parler du contrôle de l’expression des gènes au sein de la cellule).

Une locution, biologie synthétique, a fait fortune hors des labos. Utilisée, semble-t-il, pour la première fois en 1912 par Stéphane Leduc, sa gloire actuelle est à mettre au crédit de Craig Venter, l’entrepreneur pionnier du séquençage du génome humain qui est aussi à l’origine de la création ex nihilo d’ADN « viables », entièrement synthétiques. C’est une remarquable prouesse technologique, mais qui reste marginale et surtout limitée à certains cas très simples. Dans les milieux de la recherche, on parle plutôt de « biologie de synthèse ». Les objectifs sont plus modestes et mieux circonscrits (voir par exemple l’article prospectif de François Kepes) (7), et le terme recouvre l’ensemble des techniques permettant de concevoir et d’éditer des génomes aussi rationnellement que possible, dans le but de transformer des cellules en petites usines chimiques (production d’insuline, de biocarburant…). On est très éloigné des promesses mirobolantes que l’on sert au grand public (voir par exemple cette conférence TED où un chercheur du Génopôle d’Évry explique que des arbres seront reprogrammés pour croître en forme de maison, et qu’à terme, en 2030, on pourra planter son habitation) (8).

Le séquençage proprement dit produit une liste de données brutes organisées linéairement, que l’on doit ensuite analyser avec toute la puissance de l’outil mathématique, statistique et informatique. De ce point de vue la contribution du monde numérique à l’essor de la biologie moderne est fondamentale. L’automatisation, voire la robotisation des procédés est aussi un point clé des analyses génétiques à grande échelle, et à ce titre on peut considérer que les progrès de la biologie moderne sont à créditer plus à cette mécanisation des techniques qu’à une révolution conceptuelle qui n’a pas vraiment eu lieu depuis l’époque du « dogme ». Ce modèle et ces techniques « numériques » ont leurs limites, il est clair qu’on ne peut raconter un être humain en quelques dizaines de milliers d’instructions. Le cas des bactéries, organismes unicellulaires et sans noyau, est déjà remarquablement complexe et en grande partie encore mystérieux. Au-delà de cette structure linéaire, il n’est pas aisé de comprendre la structure spatiale des molécules biologiques, ADN, protéines, manifestement très importante, ainsi que les réseaux de régulation de l’expression des gènes. Le même ADN est présent dans un neurone ou une cellule du derme, mais il s’exprime bien évidemment de manière radicalement différente dans les deux cas. Et ne parlons pas des parties qui ont résisté au séquençage (9), ou de « l’ADN poubelle » (junk DNA), les parties non directement codantes, qui forment en réalité la plus grande partie de notre génome (98% chez l’homme), et dont la fonction, loin d’être élucidée, mais probablement bien réelle, est ignorée par le « dogme ». Remarquons enfin que 23andMe, dans son offre standard, ne séquence en fait que 0,3 % des génomes de ses clients, et ce avec un taux d’erreur non négligeable (10).

Une infinité de nuances de gris
Quoi qu’il en soit, rares sont les situations où un gène correspond à un caractère précis, de sorte qu’une mutation corresponde précisément à une maladie. On est en fait en présence d’un exemple typique de système complexe, où des ensembles de gènes interagissent mutuellement et avec l’environnement, via de nombreuses boucles de rétroaction. La biologie à ceci de particulier qu’elle ne connaît guère les 0 et les 1, le blanc ou le noir, mais plutôt les nuances de gris, les probabilités, les tendances, les écarts statistiques. De ce point de vue, les inquiétudes de la FDA au sujet de 23andMe sont, comme on l’a vu, en partie justifiées, car des données de ce type sont réellement délicates à interpréter, et l’on peut craindre une automédication naïve et dangereuse. À côté de cela, il est facile de saisir le potentiel commercial que représente l’exploitation de la crédulité populaire relativement à ces données génétiques.

En réalité, tout de passe comme si la nature considérait ce système complexe, où l’on peut difficilement isoler la cellule du continuum de son environnement externe ou interne, à l’inverse de la vision « bottom-up » du dogme. S’il est une branche de la biologie qui a conduit à des bouleversements conceptuels profonds dans notre vision du vivant, c’est bien les sciences de l’évolution, c’est-à-dire la compréhension des effets subtils de la sélection naturelle, selon un point de vue qui repose sur l’observation statistique de grandes populations d’organismes vivants, et ce sur de nombreuses générations. Bien entendu, le génome joue un rôle fondamental et central dans la compréhension de l’évolution, mais l’information génétique n’y a pas de sens lorsqu’elle est isolée. Elle doit toujours être replacée dans son contexte évolutif, temporel et dynamique. Une bonne partie des critiques sérieuses visant l’usage des technologies OGM dans l’agro-industrie pointent l’ignorance de ce fait et de ses conséquences (11).

Biomimétisme
Les solutions « trouvées » par la nature ne doivent rien à un ingénieur qui en aurait développé les éléments, tels ceux d’une voiture, pièce par pièce, par l’édition locale de l’ADN via des opérations de type copier-coller. Ces « solutions naturelles » sont d’ailleurs souvent bien plus efficaces, économes et optimales que nos réalisations technologiques, et elles restent en grande partie mal comprises. Que l’on compare, en termes de degrés de liberté, de souplesse et d’efficacité énergétique, un bras humain, muni de ces moteurs extraordinaires que sont les muscles, et un bras robotisé, articulé autour de moteurs électriques. Que l’on compare la photosynthèse et nos technologies solaires à base de silicium. La vogue actuelle du biomimétisme, qui consiste à s’inspirer de ces « solutions naturelles » pour faire avancer nos technologies, quoi que très prometteuse, en reste bien souvent à l’idée de copier la nature via la traditionnelle approche bottom up de l’ingénierie, sans en assimiler les méthodes.

Numérisation et dévitalisation de l’ADN.
La molécule d’ADN possède des propriétés physico-chimiques remarquables, qui font que, en assemblant des paires de base le long de cette double hélice, on peut y coder formellement, indépendamment de tout sens biologique, à peu près n’importe quelle information, et ce en grande quantité. Si elle est conservée dans de bonnes conditions, cette molécule est stable et pérenne, et on peut imaginer de véritables disques durs à ADN (12), si toutefois l’on surmonte la lenteur des procédés d’écritures et de lecture. Mais en aucun cas il ne s’agira de disques durs vivants ! Bien au contraire, cette même molécule d’ADN, replacée dans son contexte vivant se trouvera constamment altérée et transformée, et l’information non reliée à la vie de la cellule sera remixée, rapidement diluée et finalement en grande partie détruite. Par exemple, les parties du génome de l’artiste Eduardo Kac, que celui-ci a fait intégrer dans une lignée de pétunias (Edunia), sont insignifiantes du point de vue la théorie de l’évolution. On peut espérer les préserver uniquement parce que cette plante est soigneusement cultivée. Il en va de même des caractères ornementaux de la plante. Son côté « non naturel », revendiqué par Kac, n’a donc pas grand-chose à voir avec la manipulation génétique effectuée. Une autre œuvre d’Eduardo Kac, Genesis, met d’ailleurs remarquablement en valeur ces phénomènes d’évolution du génome : une phrase de la bible est codée dans l’ADN d’une population de bactéries. Soumise à des ultraviolets accélérant le taux de mutation, la phrase transformée et méconnaissable est redécodée à la fin de la performance (13).

L’une des formes extrêmes de la biologie synthétique, l’approche par biobricks, popularisée par Drew Endy du MIT, et le concours iGEM, mais qui est contestée au sein même de la communauté (14), touche un public d’amateurs avertis (pour la plupart étudiants) et le mouvement bio-DIY des biohackers. On pourrait dire que la biologie synthétique est à la biologie ce que la norme MIDI est à la musique, et, de ce point de vue, la contribution des biohackers relèverait de la musique 8 bit et des chiptunes, jusque dans son côté bricolé et open source. C’est à dire quelque chose d’intéressant et de créatif — le concours iGEM a donné lieu, entre autres choses, à des procédés de détection de polluants —, mais tout de même de limité dans son ensemble. Malgré ce côté libre et collaboratif, iGEM se présente ouvertement comme une entreprise pédagogique volontariste destinée à renforcer l’acceptabilité par le public des techniques transgéniques (15).

The inner life of the cell (16)
Ce petit film en images de synthèse a connu un petit succès sur le net. Issu de la prestigieuse université de Harvard, il décrit le fonctionnement de la cellule, dépeinte sur le mode d’une usine où s’activent divers agents, des moteurs moléculaires, des protéines-robots évoluant le long des microtubules, dont la représentation semble librement inspirée de l’imaginaire visuel de la science-fiction. Il s’agit certainement d’un schéma simplificateur fécond pour penser la complexité de la cellule, mais cette présentation mécaniste ne laisse plus beaucoup de place à l’aléatoire et aux équilibres incertains qui font la spécificité du biologique. Après le canard de Vaucanson, l’explication physico-chimique de la vie à la Stéphane Leduc, les dérives scientistes et eugénistes du XXème siècle et la vague cybernétique des années 50, c’est donc un nouvel avatar de la vision mécaniste de la vie qui est à l’œuvre aujourd’hui comme schéma dominant de pensée de la biologie moderne. À tout le moins est-ce cela que l’on sert au grand public via les média, les conférences TED, voire même dans les musées où l’on assiste à un développement exponentiel des initiatives art-science.

Art washing
En effet, les grandes conférences scientifiques internationales de biologie de synthèse sont maintenant dotées de sections « bio-art » (17), et les grandes institutions de la technoscience, publiques ou privées, ne se privent pas de financer des prix artistiques, des résidences d’artistes ou des expositions. On peut les soupçonner de vouloir en profiter pour redorer leur blason parfois quelque peu terni. Quel meilleur vecteur que le financement des artistes, pour asseoir l’acceptabilité d’une technique auprès du grand public ? L’artiste va parfois revendiquer un discours critique, mais si celui-ci s’inscrit en toute bonne foi au sein du dogme et prend pour acquis l’approche réductionniste, afin éventuellement d’en interroger les réalisations et les perspectives, le tour est joué. Pour pas cher, on peut diffuser un schéma de pensée auprès d’un public cultivé et prescripteur (18).

La biologie est-elle un art numérique ?
Les institutions du monde de l’art, musées ou festivals, spécialisées dans l’art numérique et des nouveaux médias ont pour la plupart étendu leur compétence au domaine du « bio-art ». Mais il ne s’agit pas d’une ouverture aux artistes qui, tel Michel Blazy, sont en prise directe avec le vivant. Ce qui frappe en premier lieu lors de la visite de l’exposition En Vie / Alive (19) qui s’est tenue à Paris l’été dernier à la fondation EDF, c’est l’omniprésence d’écrans, de machines, de schémas et de wishfull thinking, qui contraste avec le confinement dans lequel étaient tenues les rares formes de vie présentées, tel ce cactus chevelu de Laura Cinti (20), provocation très subtile, mais pas clairement assumée : les poils qui remplacent les épines, contrairement à ce que le public est invité à s’imaginer, ne sont en rien le résultat de l’introduction d’un gène de kératine. Impossible aussi de ne pas remarquer le discours de remédiation environnementaliste, qui relève de choix curatoriaux, et qui donne à voir des œuvres transgéniques, pour la plupart virtuelles, comme des manières de palier les effets du réchauffement climatique et de l’extinction massive et rapide des espèces. On rejoint ainsi le fantasme de « dé-extinction », (recréer de la biodiversité par génie génétique), dont le bébé néandertalien de George Church est un symptôme. Le message implicite n’est-il pas que finalement on peut continuer à polluer, les ressources infinies d’une géo-ingénierie version bio nous permettrons de trouver des solutions élégantes ?

The Human Brain Project
À moins que la solution la plus élégante ne soit tout simplement d’abandonner notre enveloppe corporelle et de se fondre dans le réseau ? L’analogue contemporain du Human Genome Project des années 90 (séquençage du génome humain), le Human Brain Project, ne manque pas d’alimenter ce genre de fantasmes. Basée en Suisse, cette initiative internationale déjà financée à hauteur de 1 milliard d’euros s’est fixée pour but de réaliser rien de moins que la modélisation complète, à l’aide de supercalculateurs, du cerveau humain. L’histoire dira si cet espoir est raisonnable, ou si ces effets d’annonce, inévitablement accompagnés de perspectives thérapeutiques grandioses (Alzheimer et Parkinson ne sont jamais loin), ne sont là que pour faire rêver les décideurs et les financeurs. Il est fort possible, que, comme pour le Human Genome Project, ces espoirs soient déçus, mais qu’il en résulte de nombreuses découvertes importantes, inattendues et orthogonales aux idées initiales (chaque scientifique sait bien cela lorsqu’il dépose une demande de financement). Mais le message qui persiste auprès du grand public reste conforme au paradigme réductionniste et alimente les délires transhumanistes à la Ray Kurzweil (21) : l’homme est une machine, qu’avec un peu d’efforts nous pourrons réparer, dupliquer, voire améliorer, synthétiser, et finalement uploader dans un nuage.

Le Human Brain Project s’intègre naturellement dans l’évolution récente des neurosciences, marquée par les progrès des technologies d’imagerie médicale, qui permettent chaque jour de voir un peu plus loin dans le cerveau. Mais là aussi, la sur-interprétation guette, et l’idéologie pointe souvent le bout de son nez. Les recherches, encore onéreuses et effectuées sur de faibles cohortes de patients, sont souvent entachées de biais statistiques et de présupposés idéologiques (expliquer la violence par des schémas neuronaux), voire de fraudes (22). L’une des marques de ces idéologies en vogue est de vouloir tout ramener à des quantités mesurables, à des indices, à des classements (QI, violence, bonheur…), et, de ce point de vue, on assiste bien à une numérisation, un échantillonnage, une discrétisation de l’humain, qui laisse passer entre ses mailles toute sorte d’aspects qualitatifs du vivant.

Dans l’univers discret, fini et élémentaire du célèbre jeu de la vie de John H. Conway (23), on peut voir apparaître des comportements arbitrairement complexes (en réalité, tous les phénomènes calculables). Le Human Brain Project, interprété au sens fort (celui que l’on vend au grand public), revient à faire l’acte de foi que la conscience humaine est une propriété émergente d’un tel système, certes complexe, mais fini. On peut à l’inverse faire l’acte de foi que l’image numérique du vivant (données génétiques, flux d’informations dans un graphe neuronal, mesures biologiques…) n’est qu’une projection, certes importante et concrètement utilisable, permettant par exemple d’identifier un criminel avec une certaine probabilité ou de ficher les citoyens, mais offrant une image radicalement réduite du phénomène biologique.

Par exemple, décrire un être vivant par un ensemble des données numériques implique que l’on puisse le circonscrire assez précisément dans le temps et dans l’espace. Rien n’est moins clair dans le monde biologique. Qu’est-ce qu’un gène ? Les définitions varient selon les contextes. Qu’est-ce qu’un virus ? Est-il une forme vivante ? La prise de conscience récente de l’omniprésence des virus et de leur rôle fondamental fait bouger des lignes que l’on croyait bien établies, en particulier via la découverte de virus géants (24). Qu’est-ce qu’une plante ? Peut-on la considérer indépendamment des micro-organismes du sol dans lequel elle croît ? Peut-on isoler l’homme de l’écosystème complexe qui peuple ses muqueuses ? La réponse est tellement clairement négative que, comme dans une sorte de fuite en avant, on explore maintenant l’ensemble des génomes de notre flore intestinale, un métagénome que l’on estime 150 fois plus grand que le nôtre.

Il ne s’agit pas ici de fournir des arguments en faveur d’un obscur vitalisme qui rendrait le biologique inaccessible à la technique, ni même d’une critique du réductionnisme en général, dont on peut considérer qu’une certaine dose est consubstantielle à la démarche scientifique, et encore moins de nier les progrès fulgurants des technologies du vivant. Il s’agit uniquement de montrer les limites d’un réductionnisme véritablement réducteur, qui fait fi de la nécessaire modestie de la science, dans un contexte où chaque nouvelle découverte fait en réalité apparaître une complexité supplémentaire et inattendue. Il s’agit aussi d’identifier les dérives idéologiques et les manipulations qui se cachent derrière la sur-interprétation démesurée des bien réelles convergences entre numérique et biologique dont nous sommes les témoins.

Dans une société où notre rapport à la nature est de plus en plus distant, où le commun des mortels n’a plus de contact direct avec les animaux ou avec les cycles de la nature via les travaux de champs, dans une société aseptisée, exempte des odeurs de la pourriture et de la mort et où l’on cache dans des nuggets de poulet (25) les bas morceaux des animaux que notre industrie produit en masse, la numérisation du vivant telle qu’elle s’engage revient à élargir plus encore ce fossé béant, à renforcer l’idée présomptueuse d’un contrôle que l’on aurait sur la vie et la nature, voire à valider des choix favorables à quelques grands groupes dont les intérêts n’existent qu’à court terme. Mais la vie, qui n’a pas attendu l’homme pour établir ses réseaux hautement connectés (26), se moque bien de nos prétentions.

Emmanuel Ferrand
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Emmanuel Ferrand est Maître de conférences à l’Institut Mathématique de Jussieu / Projet Analyse Algébrique.

(1) Ce titre est un clin d’œil à l’article de Johan Söderberg, « Illusoire émancipation par la technologie », Le Monde Diplomatique, Janvier 2013. www.monde-diplomatique.fr/2013/01/SODERBERG/48629

(2) Mehdi Belhaj Kacem, séminaire à La Générale, le 8 décembre 2013. http://youtu.be/_g04bug65ZE

(3) Le Daily Mail, 20 janvier 2013 a reproduit les informations du Spiegel (ci-dessous) en prêtant à George Church cet appel à une mère porteuse qu’il n’avait pas lancé. C’est cet article qui s’est répandu de manière virale sur le net. www.dailymail.co.uk/news/article-2265402/Adventurous-human-woman-wanted-birth-Neanderthal-man-Harvard-professor.html

(4) Spiegel Online International, 18 janvier 2013. Interview with George Church : Can Neanderthal be brought back from the dead ? www.spiegel.de/international/zeitgeist/george-church-explains-how-dna-will-be-construction-material-of-the-future-a-877634.html

(5) Un exposé très clair de l’affaire 23andMe par Rémi Soussan, blog de Lemonde.fr, 20 décembre 2013. http://internetactu.blog.lemonde.fr/2013/12/20/la-genomique-personnelle-dans-la-tourmente/

(6) Le mot « dogme » est improprement employé ici pour une théorie.

(7) François Kepes, « La biologie de synthèse : développements, potentialités et défis ». Réalités industrielles, février 2010. http://www.annales.org/ri/2010/ri-fevrier-2010/Kepes.pdf

(8) Franck Deleplace, Programmer les organismes vivants, TEDxParisSalon, 17 octobre 2012, Gaité Lyrique, Paris. http://youtu.be/S0OFfuUOX5U

(9) L’hétérochromatine reste une composante mal séquencée des génomes : « Mysteries of heterochromatic sequences unravelled », Nature Reviews Genetics 8, 567 (août 2007).

(10) 23andMe sequences are all wrong, Lior Pachter,30 novembre 2013, http://liorpachter.wordpress.com/2013/11/30/23andme-genotypes-are-all-wrong/

(11) Voir par exemple l’apparition de résistances aux toxines de maïs transgéniques : www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0069675

(12) Comme l’a démontré George Church en 2012.

(13) Ingeborg Reichle, dans Art in the age of technoscience, p. 129, fait remarquer que le travail de Eduardo Kac peut être considéré comme un discours sur le flux de nouvelles sensationnelles qui nous viennent des sciences du vivant, plus qu’une réflexion sur le vivant proprement dit.

(14) Selon la base de données PubMed, la notion de biobrick est anecdotique dans la littérature scientifique (quelques dizaines d’articles). La Biobricks Foundation définit son but de manière messianique : we envision synthetic biology as a force for good in the world. http://biobricks.org/about-foundation/

(15) iGEM ne considère la biologie synthétique que based on standard parts. http://igem.org

(16) The inner life of the cell, Biovisions, Harvard University. http://multimedia.mcb.harvard.edu/anim_innerlife.html

(17) International symposium on synthetic biology, Heidelberg, décembre 2013. www.synbio-symposium.de/sb2013/index.php/schedule

(18) Cela ne présume en rien de la qualité intrinsèque des œuvres. Que l’on pense à la postérité artistique de la cybernétique, idéologie prégnante dans les années 50.

(19) Exposition En Vie / Alive, Fondation EDF, Paris, 2013 http://thisisalive.com

(20) http://c-lab.co.uk/project-details/the-cactus-project.html

(21) How to create a mind : the secret of the human thought revealed, Ray Kurzweil, 2012.

(22) « Neurosciences, les limites de la méthode », Thomas Boraud, François Gonon, Le Monde, 30 septembre 2013. www.lemonde.fr/sciences/article/2013/09/30/neurosciences-les-limites-de-la-methode_3487335_1650684.html

(23) Le jeu de la vie est un automate cellulaire, proposé par J.H. Conway en 1970, qui se programme en quelques lignes, mais qui montre des comportements arbitrairement complexes. Il peut simuler n’importe quelle machine de Turing.

(24) Defining life : the virus viewpoint, Patrick Forterre, Orig Life Evol Biosph. avril 2010. www.ncbi.nlm.nih.gov/pmc/articles/PMC2837877/

(25) The autopsy of chicken nuggets reads « chicken little« , Richard D. deShazo, et al, American Journal of Medecine, novembre 2013.

(26) Architecture of the Wood-Wide Web : Rhizopogon spp. genets link multiple Douglas-fir cohorts, New Phytologist, 2009. http://nature.berkeley.edu/brunslab/mycorrhizal/papers/beiler2009.pdf

streaming et marquage de l’écoute à l’ère numérique

L’écoute est un processus disposé à s’épanouir dans une intimité. L’écoute parle à celui dont elle est l’écoute. Fonctionnellement, l’écoute s’articule à une machinerie poly-sensorielle dont le rôle est de renseigner l’individu sur le monde qui l’entoure. Sens parmi les sens, l’écoute s’adresse à soi, mais plus spécifiquement à la partie de soi dans le monde. À ce titre, l’écoute est un dispositif primordial de la communication entre soi et son environnement, mais également entre soi et les autres : sans écoute, pas de parole. Entendre devient donc également un enjeu communautaire, en tant qu’elle est au centre du fonctionnement de la langue orale. L’écoute, ainsi, est tendue vers l’autre et l’extérieur. Elle invite l’en-dehors à se manifester. Elle le fait parler.

Longtemps, tous les objets de l’écoute étaient en rapport de coexistence avec l’auditeur ou, pour le dire autrement, l’individu à l’écoute ne pouvait entendre que ce qui se déroulait dans un champ spatial et temporel qui lui était contingent, champ qui se dimensionnait d’ailleurs à la mesure de ces capacités auditives. On vivait inéluctablement dans le même espace-temps que ce qui avait produit le son que l’on entendait. L’avènement de la reproductibilité de l’audible a brisé cette contingence certaine. Ce qu’on entend désormais a pu être prononcé ou exécuté il y a plus d’un siècle, dans des lieux situés à des milliers de kilomètres de nous, et dans lesquels, pour un bon nombre d’entre eux, on ne se rendra probablement jamais.

Le son, une fois domestiqué, c’est-à-dire médiatisé, a été dupliqué en autant d’empreintes que la technologie le permettait (grâce à la phonographie) et a pu être transmis à grande distance de manière quasi-instantanée (grâce à la radiophonie). Il nous est sans doute impossible, aujourd’hui, d’appréhender avec justesse le caractère frappant des premières expériences d’écoute de voix d’êtres distants ou disparus. On pourrait s’interroger, d’ailleurs, sur l’identité du premier individu à avoir été réentendu après sa mort. On pourrait chercher à savoir qui était ce premier être à avoir laisser derrière lui sa voix mais surtout qui, parmi ses survivants, a fait cette expérience primordiale d’entendre à nouveau les paroles de quelqu’un qui ne parle plus. De nos jours, cette écoute des sons fantômes est devenue une expérience banale : le corps sonore s’est dissipé au profit de ses enregistrements.

Mais à l’ère de cette écoute médiate, schizophonique, s’est déjà superposée celle d’une écoute sans objet. Le support physique, désormais, est également en voie de disparition et subit déjà une raréfaction considérable. Seule l’interface perdure. L’écoute, désormais, prélève des flux. La dématérialisation des sons s’est donc affranchie de ce qui a été, sous de multiples avatars, l’emblème de la production en masse de l’audible : l’empreinte. Pour autant, l’empreinte existe encore, bien que dissimulée dans des espaces de stockages toujours plus inaccessibles, toujours plus nuageux. Elle perdure, stockée en états électriques ou en potentiels magnétiques, circulant dans le réseau puis se transcodant dans la mémoire vive des machines qui nous les donnent à entendre. Aussi, ce qui se dématérialise est moins le son lui-même, que l’objet le manifestant.

La musique a été, durant toute l’histoire de l’écoute médiate, invariablement liée aux supports sur laquelle elle était inscrite (fil de fer, disque souple, bande magnétique, disque optique, etc.). Aujourd’hui, son accès ne se cristallise plus autour d’objets que l’on possède, mais autour de lieux où l’on accède, fussent-ils des lieux virtuels. Le protocole préliminaire à une écoute médiate n’est donc plus tant de coupler un dispositif intermédiaire à un support que d’accéder à un canal de diffusion. À ce titre, l’écoute en ligne ne se distingue pas encore d’une écoute radiophonique, où l’on dérive sur les bandes de fréquences jusqu’à trouver une station délivrant un flux satisfaisant. Mais, plus qu’une simple déclinaison du protocole radiophonique adapté à Internet, le streaming audio apporte à l’écoute médiate des conditions nouvelles, susceptibles de la modifier en profondeur.

L’une de ces nouvelles conditions, déterminante dans le façonnage de l’écoute, est que, si l’accès au flux radio est évanescent, en ce sens où le son disparaît dans l’instant même de son apparition, le son en streaming, lui, est accessible de manière pseudo-permanente (c’est-à-dire, à tout moment, dès lors qu’il est encore mémorisé sur un serveur accessible). La radio a créé cette situation étrange : l’émission de flux continus à l’adresse de récepteurs-auditeurs « muets », n’ayant comme possibilité active, vis-à-vis de ce flux, qu’une simple alternative : écouter ou ne pas écouter. L’accès en streaming redessine cette relation, donnant souvent aux auditeurs, en plus d’une maîtrise temporelle, la possibilité de s’exprimer sur l’objet de leur écoute. Aussi, la lecture en ligne de flux audio autorise, suggère ou encore implique le commentaire, allant parfois jusqu’à l’inscrire à même la forme d’onde représentant le son. Il ne s’agit alors moins d’écouter que de dire son écoute, dans le temps même de son écoute.

Ces commentaires, en effet, ne sont presque jamais des avis argumentés. Ils ne sont pas, non plus, l’occasion de briller socialement, comme cela pouvait être le cas dans les salons musicaux du XIXème siècle, bien qu’ils assurent tout de même une fonction sociale, voire même communautaire. Ils ne se destinent, bien souvent, qu’à signaler une présence, qu’à signer une écoute. Et c’est bien là le fait communautaire par excellence : simplement affirmer appartenir à un groupe, en se manifestant, établissant de ce fait une communauté de présences. Être là, c’est déjà en être. Le protocole de diffusion en streaming propose alors une articulation tripartite où l’écoute se prolonge par son expression possible (c’est-à-dire par sa manifestation via le commentaire) dans un lieu, un site, délimité et reconnu. Aussi, à l’expérience communautaire de dire, signer et manifester son écoute, se double une expérience proprement territoriale. Laisser un commentaire, au-delà de son contenu même, c’est déjà dire : « mon écoute est passé par là, s’est actualisée ici »; c’est poser un jalon, c’est produire le témoignage d’avoir arpenter ce territoire-là.

Et ce territoire ainsi constitué se révèle être diffracté : à l’espace virtuel, au cyberespace, donc, se superpose des lieux réels (la rue, le domicile, le bureau, etc.) où va pouvoir s’actualiser le flux audio, suspendu entretemps dans les stockages-nuages. Où qu’il se trouve, l’auditeur peut, pour peu qu’il puisse utiliser un terminal connecté au Réseau, partir à la recherche du son ou de la musique désirée qui ne manquera pas d’apparaître, quelque part. Ainsi, le stockage globalisé, le cloud, s’appréhende comme une prothèse déterritorialisée qui s’actualise chaque fois que l’auditeur ouvre puis coupe le flux. La dissipation des « lieux d’écoute » spécifiques au profit d’espaces virtuels consultables partout achève donc le sacre d’une écoute qui est désormais qualifiée de « nomade ».

Mais ce qui est nomade, si l’on en croit Gilles Deleuze et Félix Guattari, n’est pas pour autant détaché d’un territoire, bien au contraire. C’est d’ailleurs en vertu de cet attachement, en vertu du fait qu’il ne veut pas le quitter, qu’il ne veut pas bouger, en quelque sorte, que le nomade est contraint de voyager à travers ce territoire, suivant un circuit défini, planifié. De la même manière, l’écoute d’objets dématérialisés et leur consultation à l’aide de flux accessibles partout génèrent ce même possible piétinement de l’écoute. On peut écouter sa musique partout. Partout à chaque instant, on peut écouter la même musique. Le lieu indiffère, sa signature acoustique également. L’écoute nomade est une écoute captive d’un espace atopique qui peut, à loisir, produire, encore et encore, le même son, la même musique. Le nomadisme de l’écoute n’est donc pas un processus de diversification des expériences d’écoute, mais bien plus une tentative d’homogénéisation.

Il faut donc être vigilant, tirer parti de la multitude de flux, les arpenter, les explorer, se déterritorialiser sans cesse. Il n’y pas un flux. Il y en a une profusion. L’espace virtuel est un immense delta où se perdent d’innombrables chenaux audibles se ramifiant à l’infini. Alors, on peut signer son passage, poser un caillou pour établir son territoire, en faire une constellation, mais il faut reprendre la route, ne pas faire du sur-place où, à l’infinité des possibilités, s’oppose une démarche tautologique qui cherche à reproduire, constamment, un même état, une même expérience d’écoute. Il faut donc être un voyageur infatigable de l’espace audible, à l’écoute des flux.

François J. Bonnet
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

François J. Bonnet est membre du Groupes de Recherches Musicales de l’INA, chargé de programmation et coordinateur pédagogique du parcours acousmatique et arts sonores. Il enseigne par ailleurs à l’Université Paris 1 – Panthéon-Sorbonne. Son premier ouvrage, Les mots et les sons : un archipel sonore, paru en 2012 aux Éditions de l’Éclat est préfacé par Pierre Szendy.