Archive d’étiquettes pour : numérisation

le rôle de la main dans les nouvelles technologies

On pourrait dire, dans la continuité d’Aristote, qu’elle est douée de pensée. S’affairant discrètement, doctement, au-dessus d’une feuille de papier et désormais d’un écran, la main œuvre, opère, conçoit. Toutes ces actions répétées, ces mouvements syncopés, ces gestes du quotidien prouvent combien nous lui sommes redevables.

Même si les paléontologues s’accordent à dire qu’elle ne dispose pas de qualités particulières, exceptée son incroyable polyvalence (1), la main, plus qu’un prolongement, est également bien plus qu’un outil. Comme nous aurons loisir de le constater peu après, l’outil constitue une étape dans le long processus de libération de la main. De même, c’est sur elle que reposent aujourd’hui les principaux enjeux des technologies numériques, et notamment le tactile. Autour de cet organe si singulier s’est donc tracée la destinée technique de l’homme, et les appareils et programmes que nous utilisons désormais en tous lieux se recommandent toujours, quelque part, d’une main. Plus encore, c’est à son agilité hors norme, dans la libération du geste comme dans la contrainte du mouvement, à sa formidable capacité à s’adapter et à se jouer des contraintes que l’on doit l’éventail et la richesse des technologies dont nous disposons aujourd’hui pour communiquer, travailler et nous divertir.

Ainsi, il conviendrait d’analyser en quoi les technologies, et en particulier les technologies tactiles, pourraient constituer une étape supplémentaire vers la libération de la main. Car celle-ci est toujours, quelque part, au travail. La main œuvre, c’est d’ailleurs sans doute, à l’image de la citation d’Henri Focillon que nous avons choisie en préambule, sa principale destination. Ainsi, l’idée de vouloir libérer complètement la main peut parfois paraître saugrenue, notamment du fait que les technologies reposent sur l’extrême polyvalence de cet organe, et ce, même si l’interaction homme-machine passe progressivement de la contrainte mécanique du mouvement – par l’usage du clavier – à l’apparente liberté du geste – rendue possible grâce aux environnements tactiles.

Du clavier à l’écran : la main dans tous ses états
Nous souhaiterions ici en profiter pour développer ces deux aspects de l’action manipulante : entre liberté de mouvement et contrainte mécanique. De contrainte, il est souvent question notamment lorsqu’il s’agit de rappeler combien la main est sollicitée par l’exercice des claviers qui ont, depuis de nombreuses années, supplanté l’écriture manuscrite. Le standard de disposition des touches QWERTY, apparu sur les machines à écrire à la fin du XIXe siècle, avait pour objectif de contourner des problèmes d’ordre mécanique : étant donné que les tiges voisines se coinçaient régulièrement, les touches ont été délibérément écartées, et c’est ainsi qu’aujourd’hui encore, la configuration des claviers de modèles QWERTY et AZERTY pour les francophones (excepté le Québec) demeure contraignante et peu efficace (2).

Le passage d’une rangée de signes à l’autre suppose un écartement exagéré des doigts, voire un déplacement de la main, l’accès aux accentuations (pour le clavier français) est difficile, parfois même hasardeux. En résumé, l’usage du clavier suppose un travail soutenu de la main, et là encore, celle-ci résiste, se plie, s’adapte (3). Ainsi, en s’appuyant sur sa polyvalence et son extrême agilité, les claviers modernes et actuels la sollicitent tout particulièrement. C’est peut-être, entre autres choses, cette sur-sollicitation qui favorise l’émergence du tactile, lequel vise à concentrer l’action manipulante sur des tâches simplifiées.

Sur un clavier, les jeux de déplacement, le pivotement de la paume et la percussion mobilisent l’organe tout entier. Sur l’écran tactile, cette charge se concentre peu à peu sur la pulpe des doigts, faisant de cette zone précise l’enjeu capital des technologies à venir. Nous avons observé que les dispositifs classiques mettent à l’épreuve la main et par là-même sa capacité à s’accommoder de gestes peu ergonomiques. Au contraire, dégager une possibilité, c’est libérer partiellement d’autres zones dynamiques pour élever la main vers le geste (4). Alors que les périphériques traditionnels (claviers, souris, manettes de jeu) impliquent une résistance mécanique de la main, la promesse du tactile modifie sensiblement les interfaces hommes-machines afin que celles-ci soient commandées de manière plus souple.

Le modèle tactile : un nouveau paradigme de la relation homme-machine
Si le tactile promet de libérer la main en rendant son action plus discrète, les interfaces et les médiums reposant sur ce principe nécessitent quant à eux une modification des paradigmes traditionnels de la relation homme-machine. Comme nous l’avons évoqué plus tôt, les tâches doivent être adaptées à cette nouvelle typologie manipulatoire, de même que le matériel; dès lors, il n’est pas étonnant de voir des appareils hybrides incluant une tablette et un clavier analogique. Le passage au tactile suppose par conséquent un ensemble de tâches adaptées, d’autres nécessitant toujours la présence de périphériques traditionnels.

Ainsi le tactile se réserve-t-il à un champ opératoire plus restreint, et s’exerce souvent au repos ou dans un contexte de détente. La mise à contribution de la main n’est donc plus, dans ce cas précis, axée uniquement sur l’accomplissement d’un travail — d’un travail, pourrait-on dire, en sous-main. Même si grâce aux progrès de l’ergonomie, aux évolutions conjointes des appareils et des systèmes, l’exercice de la main s’allège peu à peu, il est difficile de concevoir les Nouvelles Technologies sans que quelque part, sur un clavier, une souris ou une tablette, une main ne s’affaire.

C’est ainsi que le tactile introduit par touches discrètes un allègement sensible de la charge manuelle. Cela dit, il ne libère pas intégralement la main de sa fonction médiatrice et de la relation symbiotique qu’elle entretient avec les machines. Nous avons observé que l’action manipulante est à la base de la communication entre l’homme et la machine. Même si les programmes, par leur nature opératoire, visent à décharger la main d’un certain nombre de tâches — notamment les plus répétitives —, l’usage quotidien des appareils met sans cesse en jeu la disponibilité et la souplesse de l’organe manuel.

Pour revenir à nos toutes premières observations, les Nouvelles Technologies doivent beaucoup à la manipulation par le fait que celle-ci constitue un référentiel de premier plan pour l’élaboration des programmes. De près ou de loin, dans la contrainte ou dans le geste, la dimension archétypale de la main en fait, plus qu’un outil, un modèle pour le développement des technologies passées et à venir. Mais alors, quelles seront les futures formes d’interaction entre l’humain et la machine si, comme dans le cas du tactile, l’intervention de la main se fait discrète ? Au-delà de l’écran, est-il possible d’envisager des modes opératoires d’où la main serait exclue (5) ?

Après le contact, l’empreinte
Si la tactilité suppose l’intimité d’un toucher, elle suggère également la présence d’une trace. Pour paraphraser Georges Didi-Huberman, une forme devient une contre-forme, se renverse, par application (6). À l’image de l’empreinte digitale, l’action tactile est avant tout le dépôt d’une image et l’apparition de son double renversé. Il est légitime dans ce cas de se demander comment l’écran sans épaisseur peut-il advenir et comment l’homme pourrait ainsi caresser l’intérieur de la machine ? On pourrait également se questionner, à juste titre, sur le rôle que pourrait tenir la main, sachant que l’enjeu réside aujourd’hui dans son extrémité, où l’effleurement succède peu à peu à la percussion.

Comme nous l’avons esquissé plus tôt, la promesse du tactile est immense. En effet, le glissement progressif d’une action contrainte vers la liberté du geste implique un double enjeu : celui d’un dépassement mécanique et moteur, puisque la main se dégage peu à peu des servilités entraînées par les périphériques traditionnels et celui, opérant au seuil de l’imaginaire, promettant une plus grande promiscuité avec les mondes virtuels. Nous le voyons, cette remise en question du rôle de la main par les dispositifs tactiles fait émerger de nombreuses questions quant aux limites de la technologie.

Ainsi que l’écrivait Paul Valéry, la résistance du solide est le fondement de l’action manipulante (7). Seulement, le tactile met en balance le rôle de la main avec l’évolution de techniques où les matériaux sont de plus en plus légers et compacts, et où les appareils se font toujours plus discrets. La technologie a elle-même écarté du vocabulaire toute notion de volume, de masse, de rugosité. Dans ce contexte, le rôle de la main, du moins celui que les technologies lui ont assigné, est en devenir. Cependant, si les environnements tactiles s’inscrivent dans cette tendance à l’immatérialité, rappelons également que le tactile est un mode opératoire émergent, et qu’à ce titre, il cohabite avec les périphériques traditionnels dont il serait bien hâtif de prédire la fin définitive. Car le propre d’une technologie avancée, écrivait Gilbert Simondon, n’est pas de s’automatiser (8) — libérant par là même l’organe en prenant en charge des procédures répétitives —, mais de demeurer ouverte. « Ouverte » pourrait signifier ici diverse, arbitraire (nous l’avons observé avec le clavier traditionnel) ou accomplie.

Par conséquent, supposer que la libération de la main soit l’étape décisive du progrès revient à exclure toutes les tentatives, les expériences et les objets qui font la diversité de l’offre technologique. Ainsi, il convient d’envisager les technologies tactiles comme une forme d’interaction et une expérience à part entière. Pour toutes ces raisons, le triomphe annoncé du tactile et la fin programmée des périphériques dits « analogiques » apparaissent aujourd’hui bien arbitraires : ce serait en effet dénier à la technologie ses multiples aspects, notamment cette part d’irrationnel dont parlait Lewis Mumford. En revanche, il est tout à fait possible d’imaginer que communiquer sans contact avec les machines soit, un jour, à portée de main.

Olivier Zattoni
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014
Illustrations : © Olivier Zattoni

Olivier Zattoni est doctorant en Sciences de l’Information et de la Communication à l’Université de Nice-Sophia Antipolis.

(1) En effet, André Leroi-Gourhan ne manqua pas de constater que : tout au long de son évolution, depuis les reptiles, l’homme apparaît comme l’héritier de celles d’entre les créatures qui ont échappé à la spécialisation […] de sorte qu’il est capable d’à peu près toutes les actions possibles […] et utiliser l’organe invraisemblablement archaïque qu’est dans son squelette la main pour des opérations dirigées par un cerveau surspécialisé dans la généralisation. Leroi-Gourhan, André. Le geste et la parole. Technique et langage. Paris, Albin Michel, 1964, p.168. [Nous soulignons].

(2) Cet exemple illustre un paradoxe dans l’évolution des techniques, dont certaines demeurent largement utilisées et ce, malgré leur obsolescence. D’ailleurs Lewis Mumford ne manque pas d’écrire à ce propos : les techniques et la civilisation, prises comme un tout, sont le résultat de choix humains, d’aptitudes et d’efforts, délibérés aussi bien qu’inconscients, souvent irrationnels, alors qu’en apparence ils sont objectifs et scientifiques. Mumford, Lewis. Technique et civilisation. Paris, Éditions du Seuil, 1950, p. 17.

(3) L’histoire nous montre que nonobstant sa capacité à se conformer et à se contraindre à un grand nombre de tâches, la libération progressive de la main est centrale dans le développement des techniques. Leroi-Gourhan en esquisse ici la chronologie : …à l’étape initiale la main nue est apte à des actions limitées en force ou en vitesse, mais infiniment diverses ; à la seconde étape, pour le palan comme pour le métier à tisser, un seul effet de la main est isolé et transporté dans la machine ; à la troisième étape, la création d’un système nerveux artificiel et rudimentaire restitue la programmation des mouvements. Leroi-Gourhan, André. Le geste et la parole. La mémoire et les rythmes. Paris, Albin Michel, 1964, p. 43.

(4) Cette potentialité, qui caractérise la démarche technique, s’ancre profondément dans la genèse de ses objets. Gilbert Simodon écrit : …construire un objet technique est préparer une disponibilité. Simondon, Gilbert. Du mode d’existence des objets techniques. Paris. Aubier, 1959, p. 246. [Nous soulignons].

(5) Cette question d’un rapprochement ou d’une intimité entre l’homme et l’univers digital demeure : sommes-nous génétiquement codifiés pour l’au-delà virtuel ? Infatigable et inconscient explorateur, l’homme du XXIe siècle touche presque du doigt l’espace digital planqué derrière la vitre. Bliss de la Boissière, François. « Être plus : l’instinct interactif », In Chronic’art, n° 70, 2011. Paris : Les Éditions réticulaires, p. 26.

(6) Cf. Didi-Huberman, Georges. La ressemblance par contact. Archéologie, anachronisme et modernité de l’empreinte. Paris. Les Éditions de Minuit, 2008, p. 99.

(7) Cf. Valéry, Paul. « Discours aux Chirurgiens ». In Œuvres I. Paris. La Pléiade, 1960.

(8) Gilbert Simondon a bien montré comment le véritable perfectionnement d’un objet technique n’était pas du tout fonction de son degré d’automation — sorte de perfection interne de la machine —, mais, au contraire, de sa marge d’indétermination : de sa capacité à demeurer « ouvert ». Didi-Huberman, op.cit., p.34.

quelques notions de technoéthique numérique

 

La numérisation du monde est sans aucun doute le plus important fait de civilisation actuellement en cours d’accomplissement. La numérisation de l’existence humaine n’est pas exactement la même chose, car d’un point de vue philosophique il ne suffit pas de dire que nous vivons dans un monde numérisé, qui serait un environnement particulier, il faut se demander si, et à quel point, et avec quelles conséquences, nous sommes numérisés.

Le numérique, sujet philosophique
L’impression que laissent les deux dernières décennies est que nous subissons l’innovation numérique, avec délices pour certains et avec regret pour quelques autres, mais dans tous les cas nous la subissons. Nous avons certes choisi les équipements que nous utilisons, mais lorsque tout le monde choisit en même temps la même chose, lorsque tout le monde développe les mêmes besoins qui n’étaient pas imaginés auparavant, on peut se poser des questions. Certains de mes collègues en sciences humaines ont l’explication : c’est à cause du complot capitaliste qui nous oblige à consommer et nous manipule. Je suggère de reprendre le problème autrement, au niveau éthique, au niveau des micro-expériences ordinaires des personnes humaines.

Avec cette méthode, on dispose de bien moins de réponses. Mais on peut avoir le sentiment qu’on parle de la véritable réalité, on parle de ce qui se passe dans la relation intime quotidienne avec les objets technologiques — téléphone, ordinateur, console de jeu, mais aussi voiture ou équipement domestique high-tech. Rien à voir avec les discours officiels et institutionnels sur le numérique, notamment ceux de politiciens qui veulent tout réguler, mais ne savent pas comment on prononce « iPad » parce qu’ils n’en ont jamais entendu parler dans leur vraie vie. Si d’un autre côté on est aussi agacé par le battage médiatique des firmes qui lancent les produits techno comme des shampoings ou des desserts, on a une bonne perception, je crois, de la manière dont les questions de fond sur la mutation numérique ont tendance à s’engluer dans le bruit sociétal ambiant. Pour les récupérer, il faut, me semble-t-il, s’attaquer à la dimension micro-éthique du numérique contemporain.

La constitution d’une technoéthique
Dans la seconde moitié du 20ème siècle s’est constituée, quasiment en même temps aux États-Unis et en Europe, une philosophie de la technologie qui est maintenant un domaine spécifique dans le monde universitaire (Mitcham, 1994). Depuis quelques années, ce domaine est travaillé par la question de réintégrer ou pas des questions proprement éthiques, des questions de valeur ou même de morale, ce qu’on appelle une approche « normative » (Heikkerö, 2012). La demande sociale sur les mutations technologiques va plus loin qu’une demande d’interprétation, elle est une demande d’évaluation, de normes, personnelles et collectives. Pour produire une analyse des valeurs, ou pour analyser des questions d’acceptabilité, pour faire de l’éthique, il importe d’établir ce qu’on appelle une ontologie, c’est-à-dire un repérage des entités existantes et impliquées dans de potentielles relations.

La philosophie de l’environnement et celle de la technologie sont en train de mettre au point des ontologies assez radicalement différentes de celle qu’utilise couramment l’Occidental moyen. Pour la technologie, c’est l’idée de réseau impliquant des acteurs humains et non-humains (eux-mêmes matériels ou non) qui s’est imposée à partir la sociologie des sciences, ou alors la notion assez comparable d’entités hybrides. L’espèce que nous sommes, Homo Sapiens Technologicus (Puech, 2008) est composé d’individus hybrides, qui ont hybridé leur physiologie et leur psychologie d’humains avec des prothèses de tout type (lunettes, dents artificielles, vaccins et médicaments, stimulateurs cardiaques, mais aussi terminaux de communication téléphonique et informatique, et ressources informationnelles stockées sur tout support, papier, numérique, et de plus en plus en ligne).

En s’appuyant sur de l’innovation ontologique (la notion d’infosphère en fait partie), le projet du domaine émergent appelé « technoéthique » est de produire une réflexion spécifique pour les nombreuses situations inédites de la modernité (Lupiccini & Adell, 2008) : les décisions bioéthiques devant lesquelles nous placent les nouvelles technologies médicales, la relation avec des ordinateurs, les nouveaux médias et notamment ceux qu’on dit « sociaux », les questions de soutenabilité (écologique, économique, sociale) de nos options technologiques et des comportements qui en dépendent, les nouvelles façons d’éduquer, mais aussi de faire la guerre, la surveillance généralisée, les OGM et nanotechnologies, les fantasmes transhumanistes d’humanité augmentée…

La proximité avec les objets numériques, du silex au silicium
Nous vivons dans un monde de significations, un monde interprété. Nous n’entendons pas des bruits crissants, écrivait Merleau-Ponty, nous entendons des pas sur le gravier, et éventuellement nous entendons un membre de la famille qui rentre à la maison. Autour du corps humain percevant fonctionne une sorte de sphère interprétative, qui à tout moment constitue un monde dans lequel nous savons nous orienter parce que nous lui trouvons un sens. C’est avec cette méthode que Don Ihde a étudié la manière dont les objets technologiques structurent et orientent nos journées, depuis la sonnerie du réveil, en passant par la préparation d’un repas, les déplacements, les communications, etc. (Ihde, 1990).

Le monde dans lequel nous vivons est une technosphère, et ce n’est en rien une aberration pour les humains. Les murs peints de la caverne, la chaleur du feu et celle des vêtements, l’environnement sonore de la parole et de la musique (toutes deux des techniques humaines), l’odeur du repas qui mijote et la multitude des objets fabriqués et à fabriquer constituaient la sphère existentielle des humains néolithiques. Chacune de ses dimensions se prolonge jusqu’à nous. Être humain signifie déployer autour de soi une technosphère et y vivre d’une manière qui est unique. Les autres formes de vie sont « sauvages », éminemment respectables, mais pas humaines. Il faut préciser cette expression. Être humain ce n’est pas seulement déployer une technosphère et y vivre au sens d’y subsister, s’y trouver, plus ou moins par hasard, mais c’est essentiellement habiter le monde, et en l’occurrence habiter la technosphère. Habiter signifie avoir tissé des liens fonctionnels qui sont des liens de signification et d’attachement à un environnement.

La naturalité de la technologie pour l’être humain ne tient pas au fait que nous la fabriquons, mais au fait que nous l’habitons, c’est-à-dire que nous créons avec notre technosphère une relation de familiarité fonctionnelle de tous les instants, qui outre ses dimensions matérielles utilitaires possède de complexes significations psychologiques, émotionnelles, symboliques, et éthiques. Les humains habitent (au sens philosophiquement le plus fort) naturellement la technosphère, quelle qu’elle soit, basée sur le silex ou sur… le silicium. Ils peuvent s’épanouir dans cet environnement, et seulement dans cet environnement ils peuvent s’épanouir en tant qu’humain. La notion d’épanouissement d’une forme de vie (flourishing en anglais) vient de l’éthique environnementale et elle a fait jonction avec la notion de « vie bonne » qu’utilise l’éthique appliquée pour parler du bonheur ou des formes de vie les plus souhaitables pour un humain. La technosphère est le lieu d’épanouissement naturel de l’humain en tant qu’humain. L’idée est moins étrange si on la prend avec un peu de rigueur : elle ne signifie pas que la technosphère suffit à l’épanouissement humain ni qu’elle le produit directement.

Examinons la technosphère particulière des humains contemporains (dans les pays industrialisés). Elle est partiellement matérielle (habitat, innombrables objets) et partiellement immatérielle, composée des contenus numériques qui sont accessibles via certains de ces objets matériels. Parmi les objets matériels naturels qui nous « entourent » figure notre propre corps, et dans ce corps un cerveau qui est lui-même un objet de traitement de l’information. Ces parties centrales de la technosphère, notre corps, notre cerveau, notre mental, nous les « sommes », avec plus ou moins d’intensité — comme une sorte de gradient dans la sphère du soi : je suis plus mon visage que mes pieds, par exemple, et plus ma langue maternelle que l’équation de l’attraction universelle, même si ces deux contenus informationnels font partie de la sphère du moi. La partie de la technosphère qui prime aujourd’hui est l’infosphère, la sphère des contenus informationnels, qui même lorsque leur lieu de stockage et de traitement est naturel (le cerveau) sont des entités techniquement engendrées (la langue maternelle, les équations de la physique, mais aussi les formes culturelles complexes des émotions, liées à une culture, et bien entendu les systèmes de valeur). Le soi est entouré d’une infosphère et celle-ci est de plus en plus numérique sur les périphéries (Clark, 2003). Le soi en est le centre, un centre lui-même largement informationnel (le mental), qui « tourne » sur un « hardware » biologique.

Les notions de technosphère ou d’infosphère ne décrivent donc pas du tout une Matrice externe qui serait contrôlante et déterminante, qui nous manipulerait ou nous tromperait, mais elles évoquent de manière plus neutre un environnement, matériel et informationnel, qui crée les conditions de la vie humaine. La numérisation récente de la technosphère, qui fait toute l’importance actuelle et grandissante de l’infosphère, est l’élément de nouveauté qui me semble le plus important aujourd’hui et qui constitue une disruption à plusieurs niveaux.

Le numérique ne constitue pas une technosphère du même type que les techniques de la pierre taillée ou celles de l’agriculture, qui ont accompagné l’essentiel du développement de l’humanité. La ligne d’évolution concernée est le langage, l’échange informationnel qui nous a fait décoller à partir du silex, et l’électronique est l’étape actuelle de cette ligne d’évolution, l’étape silicium. Le numérique cumule ainsi les effets des révolutions informationnelles précédentes, il utilise en les propulsant vers une nouvelle puissance les capacités originaires du langage, de l’écriture (même si c’est du code qu’on écrit), et de l’imprimerie. Pourtant, comme les autres évolutions de la technosphère, le numérique constitue un ensemble de moyens et pas une fin en soi. Il incarne même l’essence de la technologie, qui est un potentiel et un potentiel pour l’humain : Si l’essence de la technologie est de tout rendre facilement accessible et optimisable alors l’Internet est le moyen technologique parfait (Dreyfus, 2001: 1-2).

Mais c’est au niveau de l’interaction individuelle avec des technologies particulières que se déroule l’essentiel du processus d’humanisation dans la technosphère, selon les approches qui me semblent les plus prometteuses. Le maître en est le philosophe Albert Borgmann. Il analyse la manière dont certaines activités techniques, comme la cuisine pour préparer un repas, par exemple, peuvent être des foyers de sens et de constitution de la valeur humaine, individuelle et partagée. Il les appelle des activités et technologies « focales » et les oppose aux activités et objets purement utilitaires et commerciaux, les produits de consommation courante, ce qu’on appelle commodities en anglais (Borgmann, 1984). Une perte massive d’authenticité dans la vie contemporaine est due à la « commodification » de la vie courante, lorsqu’elle ne consiste qu’à faire fonctionner des instruments qui sont des produits de consommation courante. Inspiré par Heidegger, mais beaucoup moins technophobe que lui, Borgmann essaie de décrire le sursaut éthique, la prise de conscience, qui nous permettrait de nous réapproprier les potentiels de la technosphère au lieu de simplement les faire fonctionner. Sans qu’on ait à suivre ni à évaluer le détail des solutions particulières qu’il propose, ses méthodes s’appliquent à l’infosphère et elles aident à mieux comprendre les questions posées par la proximité existentielle du numérique aujourd’hui.

L’infosphère proximale et sa valeur
Une première infosphère, dans la technosphère actuelle, peut être dite « distale », c’est-à-dire lointaine, à distance. Cette distance est celle du cloud et des serveurs distants qui font fonctionner les liens électroniques. Le lieu particulier d’où opère la technosphère distale est un lieu d’un nouveau type, le global. Connectée à l’infosphère distale, l’infosphère proximale est par définition celle qui est proche du soi, de la personne humaine, et même comme nous l’avons dit qui en constitue, en son centre, une partie (informationnelle). Pour l’humain industrialisé moderne, le téléphone mobile et le micro-ordinateur connecté sont les supports matériels de l’infosphère proximale. Les logiciels et données utilisés quotidiennement sur ces outils, les mails et pages personnelles, les réseaux socionumériques et les sites Web favoris, sont les éléments informationnels usuels de l’infosphère proximale. Mais la carte de crédit dans notre portefeuille et tous les micro-supports électroniques, passifs ou actifs, actuels et à venir, sont autant de points de présence de l’infosphère proximale, dans la proximité physique du corps et dans la proximité existentielle du soi.

La propriété spécifique de cette infosphère est justement sa proximité existentielle, qui est à la fois proximité physique, proximité mentale, proximité émotionnelle. Une étape majeure a été franchie par la diminution de taille des outils numériques : après le high-tech, le small-tech (Hawk et al. (eds), 2008). Une écologie nouvelle des accès au numérique est en train d’apparaître, en conséquence de la portabilité puis de la portabilité-vestimentaire (wearability) des outils numériques. À l’intérieur de méta-réseaux, la technosphère globale (serveurs et relais notamment) et l’infosphère globale, qui sont l’écosystème numérique global, se développent des écosystèmes numériques locaux. Mais à la différence de leurs homologues naturels, les écosystèmes numériques locaux ne sont pas composés d’une multitude d’espèces et d’organismes individuels, ils sont centrés autour d’un individu d’une seule espèce, une personne humaine.

C’est ainsi que l’infosphère, la nouvelle forme, numérique, de la technosphère constitue notre nouvel environnement existentiel. Elle est le médiateur des interactions avec le monde, « derrière » les systèmes sensoriel et moteur qui opèrent l’interface primaire. Pour parler avec un autre humain j’utilise des organes naturels, ceux de la voix et de l’ouïe, éventuellement complétés par la vue, les comportements gestuels produits et perçus, etc. Mais cette sphère de médiation avec le monde et les autres intègre maintenant un lien numérique, via un micro et un clavier, un écran, et de nombreux objets numériques intermédiaires.

Même la conversation « présentielle » (dans la vie réelle) est médiatisée par l’infosphère, car c’est le plus souvent par la mise en contact de nos infosphères que nous avons organisé la rencontre « physique » qui nous permet de discuter, et cette conversation aura probablement des suites dans l’infosphère : un sms de remerciement, un mail de suite pour avancer sur un projet, une actualisation sur un réseau socionumérique, ou l’organisation dans l’infosphère d’une autre rencontre dans le monde physique. La proximité des autres, et notamment de ceux qui nous sont chers ou importants, à quelque titre que ce soit, est médiatisée par l’infosphère. La proximité vécue dans et par l’infosphère est donc profondément humaine et elle correspond à ces potentiels d’humanisation et d’épanouissement qui caractérisent, nous l’avons vu, les technosphères. Elle constitue l’interface privilégiée avec le monde, dans la gestion du temps et de l’espace, des relations avec les autres, de la mémoire et des projets, de la consommation commerciale et de la vie professionnelle.

Sur de nombreuses questions, le discours courant qui dévalorise à la fois les technologies numériques et l' »individualisme » me semble être une stratégie de défense par laquelle les pouvoirs institués résistent à l’émergence de nouvelles valeurs et surtout de nouveaux potentiels d’action, issus de la médiation directe et en réseau entre des individus qui s’épanouissent à l’intérieur d’infosphères proximales de plus en plus riches, non pas seulement quantitativement, mais qualitativement, en un sens culturel et même éthique — un empowerment numérique à très large spectre.

Deux phénomènes nouveaux donnent une idée particulièrement claire de ces potentiels. Le premier est la conversation virtuelle permanente, le fait que dans l’infosphère nous sommes en conversation continue avec un certain nombre d’humains, qui peuvent être distants (physiquement, mais aussi socialement). Nous pouvons à tout moment reprendre la parole dans cette conversation en cours, par un sms, un message sur un réseau quelconque, sans qu’il soit besoin d’initier et de clore rituellement la conversation comme lors d’un appel téléphonique traditionnel.

Avoir toujours quelqu’un à qui parler, ou plus exactement, être toujours en train de parler, virtuellement, à un ensemble de personnes choisies, c’est une donnée existentielle structurante et d’un type nouveau pour les humains — même si comme tous les potentiels humains, elle a aussi ses pathologies (Ess 2009, Turkle 2011). Le second phénomène remarquable est la proximité du global, via les connexions numériques, par lesquelles nous vivons au croisement de flux qui ignorent les divisions géographiques et politiques qui sont encore la principale structure du monde réel. Les sensibilités politiques, mais aussi écologiques, en sont profondément modifiées et des potentiels politiques peut-être enfin soutenables sont en train de naître dans la connexion des infosphères. La motivation politique, mais aussi et surtout les motivations écologiques, et, plus profondément, éthiques, qui aujourd’hui en prennent le relais, s’alimentent dans un nouveau type de ressentis, d’émotions, d’apprentissages et de valeurs dont le lieu est l’infosphère proximale (Rifkin 2009, Castells 2012).

Soin de soi et sagesse dans l’environnement numérique
Pour quelle raison la montée en puissance d’une infosphère proximale représente-t-elle un potentiel éthique si puissant et si positif ? Pourquoi penser qu’elle échappe largement aux déterminations économiques (le profit que cherchent les marchands de technologie) et idéologiques (la stupidification que cherchent les médias) et les remplace par un potentiel d’action authentique ? Je voudrais citer deux raisons : (1) technologies et médiations sont désormais identiques, et (2) l’infosphère proximale est attachement-pertinente.

(1) Les technologies sont des médias, c’est pour cette raison que notre technosphère est d’abord une infosphère communicationnelle. Les travaux récents sur une éthique de la médiation technologique (Verbeek 2011, Van den Eede 2012) explorent l’intermédiation permanente de nos expériences du monde, des autres et de nous-mêmes, à travers (au sens propre) les technologies contemporaines. Il faut d’abord réinterpréter la technosphère en tant qu’outil de médiation. Même l’automobile, la technologie centrale de l’ère industrielle récente, est un instrument de médiation physique et sociale, médiations enchevêtrées, à la fois dans les fonctions de transport des personnes et les capacités sociales que cela confère, mais aussi dans la fonction symbolique de prestige social. Les technologies sont depuis longtemps vécues dans le monde des signes, les sociologues nous le disaient (Ervin Goffman, Bruno Latour). Mais il y a plus dans la médiation généralisée qu’apporte le numérique. L’idée d’infosphère proximale essaie de saisir ce phénomène par lequel la médiation ubiquitaire (présente partout, en tout lieu) et pervasive (présente partout, à l’intérieur de tout) des technologies numériques ni ne « double » ni ne « parasite » le monde réel, mais aménage nos accès et constitue notre interface avec le monde réel.

(2) Il faut comprendre ensuite que l’infosphère proximale est attachement-pertinente, c’est-à-dire qu’elle relève des mécanismes psychologiques et existentiels décrits par la théorie de l’attachement (voir http://fr.wikipedia.org/wiki/Attachement). Dans sa version existante, la théorie de l’attachement ne s’intéresse qu’aux relations entre êtres humains, où elle étudie la formation d’un lien entre l’enfant et son donneur de soin (care giver) : le lien d’attachement, qui est essentiel à la constitution psychologique de la personne humaine, et qui est notamment destiné à lui procurer une base de sécurité lui permettant d’explorer le monde, de s’épanouir. On peut le plus souvent appliquer point par point le schéma « attachementiste » des interactions mère/enfant dans les divers contextes de la technosphère proximale, particulièrement à propos du smartphone, qui apparaît ainsi comme à la fois le principal outil d’accès à l’infosphère proximale et le principal objet (numérique) d’attachement. Comme dans les autres relations d’attachement, la relative « addiction » qu’il crée est essentiellement une relation de réconfort virtuel en arrière-plan, qui permet d’explorer le monde et de s’épanouir comme une personne humaine. On ouvre ainsi la voie à une interprétation technoéthique de la réassurance et du réconfort dans les micro-expériences de la technosphère et de l’infosphère. Elle est là et elle fonctionne bien, au bout de mes doigts : retirer de l’argent au distributeur (technosphère), regarder si on a un nouveau mail (infosphère), ce sont autant de micro-réassurances qui permettent d’avancer.

Dans ses derniers travaux, Michel Foucault développait la question éthique décisive (et oubliée) du souci de soi en s’intéressant à ce qu’il appelait les « techniques de soi » (Foucault, 1994). Ces éléments sont aujourd’hui repris (Dorrestjin, 2012) à propos des technologies contemporaines et de leurs potentiels de constitution du soi, notamment en reprenant le mécanisme que Foucault a mis au jour : la possibilité pour un sujet de se constituer de manière « résistive » (Puech, 2008) en se réappropriant les potentiels (éventuellement technologiques) qui lui sont fournis par un contexte de domination. Sur cette voie, on peut concevoir une forme de sagesse numérique, qui serait l’effort de constitution de soi par la médiation d’une infosphère proximale que le soi investit réellement, dans une recherche d’authenticité, d’autonomie et d’harmonie, qui n’a rien à envier aux formes anciennes d’épanouissement de la personne humaine, bien au contraire.

Michel Puech
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

Michel Puech est Maître de conférences en Philosophie à l’Université Paris-Sorbonne, et est également membre et chercheur associé de l’Équipe ETOS (Éthique, Technologies, Organisations, Société), rattaché à Télécom École de Management, Institut Mines-Télécom.

télescopages numériques

Dans les années 90, les recherches menées par l’équipe du Cetcopra au moment de l’introduction des technologies numériques dans les avions de nouvelle génération (en particulier l’A.320), mais également dans les centres de contrôle aérien ou la maintenance des systèmes de sécurité aérienne, mettaient en évidence un certain nombre de phénomènes nouveaux (Gras & al. 1995). Nous avions notamment observé que l’informatisation des cockpits modifiait le mode de présence des pilotes à bord, leur représentation du vol, la définition même de leur métier et, de façon plus générale, les rapports au corps et aux sens. Je voudrais, à l’aune des développements les plus récents de ces technologies, revenir sur certains de ces questionnements. D’une part pour en montrer l’actualité, et ce malgré la banalisation du numérique et son extension à toutes les sphères de la société, d’autre part pour interroger cette persistance et tenter de lui donner un sens.

Numérique : retour sur image
Au sens littéral, le passage de l’analogique (mécanique) au numérique (et de l’échelle décimale à l’échelle binaire) se caractérise par la transformation d’un message en un code préétabli qui ne lui ressemble en rien et que seuls sont capables de déchiffrer les machines et ceux qui les programment (Triclot 2008, Mercier & al.1984). Ce seul fait représente une discontinuité majeure avec la phase analogique antérieure dans laquelle, par le biais des sensations et des retours d’effort, l’opérateur se trouvait de plain-pied par son corps dans la réalité qu’il avait à interpréter (Gras & Poirot-Delpech 1989).

À la fin des années soixante, Jean Baudrillard fut peut-être l’un des premiers à avoir anticipé le bouleversement introduit par ce nouveau rapport aux objets et au monde. En remplaçant l’adresse par l’action à distance (la télécommande) — que Baudrillard désignait après Pierre Naville (Naville 1963) par « gestuel de contrôle » — les nouveaux objets tendraient selon lui à instituer un type de naturalité inédit, à la fois englobant et abstrait. À la préhension des objets qui intéressait tout le corps — écrivait-il alors — se sont substitués le contact (main ou pied) et le contrôle (regard, parfois ouïe) (…) Tous les objets modernes se veulent d’abord maniables. Mais quelle est cette main en fonction de laquelle leurs formes se profilent ? Ce n’est plus du tout l’organe de préhension où aboutit l’effort, ce n’est plus que le signe abstrait de leur maniabilité (…) Le corps humain ne délègue plus que les signes de sa présence aux objets dont le fonctionnement est par ailleurs autonome. Il délègue ses extrémités. (…) L’outil, l’objet traditionnel n’épousait pas du tout les formes de l’homme : il en épousait l’effort et le geste. ( …) Aujourd’hui le corps de l’homme ne semble plus être là que comme raison abstraite de la forme accomplie de l’objet fonctionnel (1).

Ce découplage entre sens et connaissance, sens et signification est justement ce qui est apparu comme une difficulté majeure aux premiers usagers de ces technologies. Revenir aux questionnements de cette époque, ce n’est pas porter un regard nostalgique sur le passé, mais trouver dans ce passé des réponses aux difficultés présentes. Car même métabolisés, ou non verbalisés à l’intérieur d’un discours cohérent, les problèmes demeurent. L’attitude qui consiste, face à ces problèmes, à dénoncer la force de l’habitude, la résistance au changement, ou à invoquer l’argument de l’inévitable transition générationnelle (théorie des « Digital Natives » prétendument adaptés aux nouveaux environnements numériques) ressemble à un déni au service d’une fuite en avant technologique. Elle repose surtout sur une curieuse croyance; celle qui consiste à considérer que les êtres humains sont toujours en retard sur les progrès de la technologie, donc à accorder une forme d’extra-territorialité ou de transcendance à la technique.

Interprète ou surveillant ? Le cas de l’informatisation des cockpits
Pour illustrer le trouble occasionné par la rupture numérique, le terrain aéronautique, fer de lance et laboratoire vivant des technologies avancées, se présente ainsi comme un témoin privilégié. Tout l’intérêt des phases de transition — telle que celle qu’il nous a été donné d’observer — est de laisser apparaître, pendant un temps très court, les lignes de faille de mondes encore en gestation. Le cas de l’Airbus 320 mis en service à la fin des années 80 nous servira ici d’entrée. Parmi les innovations les plus marquantes de ces avions figurait le FMS (Flight Management System). Le FMS gère un grand nombre de paramètres à partir d’informations qu’il reçoit du sol (les contrôleurs, les balises électromagnétiques) ou de l’espace (données satellites). Il améliore la gestion de la trajectoire par un pointage permanent, est capable de corriger les dérives ainsi que les configurations de l’avion (pour avoir le moins de résistance au vent par exemple ou la meilleure assiette), gère la consommation de carburant de façon optimale…

Celui-ci fut d’abord présenté comme le prolongement du Pilote Automatique (PA), qui existait depuis l’entre-deux-guerres. Mais à la différence de l’automate classique, qui fonctionnait suivant une boucle de rétroaction simple, le nouvel automate n’exécutait pas seulement les directives du pilote (les données entrées par celui-ci avant chaque vol), il les interprétait sur la base d’algorithmes conçus par d’autres (Scardigli 2001). Au moment de son introduction, les pilotes en parlèrent ainsi comme du « troisième homme à bord » (désignant par là le groupe des ingénieurs). Mais un homme qui avançait pour ainsi dire masqué, les écrans n’affichant que les informations que la communauté des ingénieurs, selon des critères propres à leur culture de métier et aux paramétrages des vols d’essai, avait jugé utile de montrer aux opérateurs de première ligne. L’opacité des ordinateurs et des algorithmes, requalifiés à cette occasion de « boîtes noires », ne résistait pas seulement à l’usage (Akrich 1990), elle redéfinissait subrepticement celui-ci selon des modalités qui échappaient aux usagers eux-mêmes et allaient peu à peu devenir la norme.

La difficulté des opérateurs de première ligne à coopérer avec de telles machines se manifesta d’abord par un nombre significatif de situations de communication conflictuelles et d’incompréhension. Dès la fin des années 80, et dans les années 90, les experts en sciences humaines furent ainsi invités à se pencher sur des phénomènes récurrents de baisse de vigilance, de perte ou de dispersion de l’attention, de fatigue (dans l’aéronautique, on évoqua le phénomène de perte de conscience de la situation avant de lancer plusieurs campagnes de sensibilisation sur ce thème). Travaillant à la même époque sur les nouveaux outils de supervision des centrales nucléaires, le sociologue Francis Chateauraynaud eut recours à la notion de « déprise » pour qualifier le sentiment exprimé par les opérateurs d’avoir perdu prise sur leur environnement (Chateauraynaud 1997, 2006).

Michel Freyssenet mettait de son côté l’accent sur la nouvelle division du travail en train de se mettre en place dans le cadre des nouveaux processus d’automatisation aboutissant, selon lui, à l’érosion de l’intelligence pratique. La juxtaposition de connaissances partielles, si elle pouvait superficiellement être assimilée à un processus de requalification, préfigurait en réalité l’impossibilité d’acquérir une vision et une connaissance globales des systèmes et des installations (Freyssenet 1992). On pourrait résumer cette situation par la remarque pleine d’ironie adressée par le physicien Victor Weisskopf à ses étudiants du MIT devant leur goût prononcé pour les expérimentations informatisées : Quand vous me soumettez le résultat, l’ordinateur comprend la réponse, mais vous, je ne crois pas que vous la compreniez (Sennett 2010, 60) (2).

Dans ces avions, l’engagement du corps continue, certes, d’être nécessaire à la conduite du vol. Mais cette forme d’engagement se trouve pour ainsi dire reléguée par des innovations qui rendent l’avion à la fois plus autonome, plus confortable et plus sûr. Il n’y a, à proprement parler, plus de bons ou de mauvais pilotes, mais des « gestionnaires de systèmes », comme les pilotes se désignent eux-mêmes, qui veillent au bon déroulement des process, dialoguent avec les ordinateurs, entrent des données et sélectionnent des modes. Ce qui veut dire que l’environnement immédiat du cockpit, avec ses écrans, ses modalités d’affichage de l’information, concentre désormais l’essentiel de l’attention des pilotes. L’espace perceptif s’est réduit d’autant. C’est sur ce « rétrécissement » de l’expérience corporelle qu’il convient ici d’insister comme cadre d’une refonte du rapport aux autres et au monde qui ne cesse pas d’être problématique.

Ambiguïtés des environnements numériques : persistances et métamorphoses. Le cas du Rafale
L’une des particularités des technologies numériques tient peut-être au fait qu’elles ne se stabilisent jamais complètement, et par conséquent, que les problématiques qui les concernent ne vieillissent pas non plus. Tout processus d’innovation entraîne des reconfigurations multiples, qui cessent une fois l’objet stabilisé. Mais dans le cas des technologies numériques, il semble que le stade de l’innovation, avec ses caractéristiques propres, ne doive jamais cesser. Les questions posées par les premiers usagers du Rafale (lorsque nous nous sommes entretenus avec eux au moment de la prise en main de l’avion) sont par exemple analogues à celles que soulevaient les pilotes de ligne lors de l’entrée en service des glass cockpits (Dubey & Moricot, 2003).

C’est ce qu’illustre le cas de la liaison automatique de données du Rafale (dite liaison 16). Pour certains pilotes, l’intégration systémique — matérialisée dans le cockpit par la possibilité de voir dans un rayon de 360° autour de l’avion — représente l’occasion de placer le pilote au centre du théâtre d’opérations, en situation de tout voir (les pilotes désignent cette situation par l’expression « God’s eyes view »). Elle réaliserait ainsi un vieux rêve du pilote. Mais à tout voir, ne risque-t-on pas de ne plus rien voir de particulier ? L’information qui circule dans les « tuyaux », et s’affiche sur les écrans, est en effet une information filtrée qui correspond à des choix effectués en amont. Elle est donc déjà chargée de sens, mais d’un sens construit dans une autre temporalité (et dans une autre représentation de l’espace) que celle dans laquelle se trouvent les pilotes lors de la mission. C’est ce que pointent les pilotes les plus expérimentés. Un Awacs émet ses détections et centralise celles des avions sous son contrôle. Il les redistribue à tout le monde. Il y a un canal où il diffuse tout (piste de surveillance) et un autre où ne figurent que les pistes que le contrôleur de l’Awacs a sélectionnées (piste de contrôle). Dans l’avion, on peut donc tout voir, ou seulement l’info filtrée. On a le choix. Cependant l’avion filtre quand même lui aussi techniquement une certaine partie. Il applique une liste de priorités et on n’a pas la main sur cette liste de priorités figées au développement (pilote de Rafale) (3).

Cette construction a beau faire intervenir de nombreux acteurs (dont l’ingénieur concepteur de logiciel dans son bureau d’étude), donc être sociale, elle n’est pas partagée ou commune pour autant. C’est ce que traduit très clairement la référence à « la main », dans « on n’a pas la main ». Certaines priorités (qui sont toujours fondées à terme sur une hiérarchie de sens) ont été figées en amont, et échappent ainsi à un contrôle direct, au lien que le corps (la main) maintient avec le monde extérieur, et qui reste le garant d’un engagement. Délocalisée et disjointe de la situation, la production de l’information est chargée d’ambiguïtés qui ne font que refléter la difficile coexistence d’espace-temps hétérogène. Tout le problème devient, dès lors, celui de la construction d’une information qui ait le même sens, au même instant, pour tous les acteurs du système, c’est-à-dire d’une réalité commune.

Capture du corps et perte de distance
Cela m’amène au dernier point que je voudrais aborder, celui vis-à-vis duquel nous avons le moins de recul. Je veux parler des effets de l’intégration de plus en plus poussée du corps et des sens au dispositif technique. D’une certaine façon, les nouvelles interfaces ont pris acte des limites du paradigme informationnel ou computationnel (modèle qui dominait encore la première phase d’informatisation) en prenant davantage en compte certaines caractéristiques du mode d’être incarné des êtres humains. C’est l’une des raisons pour lesquelles l’on insiste beaucoup aujourd’hui sur l’importance du design en conception, ou sur l’écologie des systèmes, c’est-à-dire sur la manière dont la réalité produite par les ordinateurs peut nous toucher directement par les sens. Je n’ai pas la place d’exposer ici les théories de l’action située, ou de l’écologie perceptive de Gibson, au fondement de cette nouvelle approche. Mais c’est ce qu’illustrent de façon concrète les interfaces de l’avion de chasse Rafale qui prennent acte de l’économie que représente pour l’opérateur humain les actions non réfléchies, directement guidées et informées par l’environnement physique de travail. Ce changement de paradigme se manifeste par la façon dont les pilotes désignent cet avion en le qualifiant de « naturel » : Il y a beaucoup d’informations sur cet avion, mais c’est un avion relativement naturel, tu comprends vite où tout se trouve. Tout tombe sous la main (pilote de Rafale).

Mais cette « reconnaissance » du rôle joué par le corps constitue-t-elle une réelle rupture par rapport aux phases de développement antérieures ? Rien n’est moins sûr. Il faut ici distinguer le confort d’usage de ces nouveaux environnements, dans lesquels, comme on vient de le voir, le corps se sent immédiatement à l’aise, de l’apprentissage des sens tel qu’il se pratiquait jusqu’à présent. Traditionnellement, les pilotes apprennent très tôt à se défier de leurs sensations, et dans une certaine mesure, à ne se fier qu’à la lecture de leurs instruments. Mais cette manière de se protéger des illusions sensorielles, inhérentes au mouvement dans un espace sans repères (la troisième dimension), en apprenant à les reconnaître, est encore un savoir corporel acquis pas à pas tout au long de la formation. Le risque est désormais tout autre. C’est celui d’une fausse présence, ou d’une présence pour ainsi dire sans distance ou sans conscience.

C’est le scénario que j’appellerai « Matrix » dans la mesure où il suppose une forme d’adhérence à la réalité produite par les ordinateurs et les systèmes. Devant ce type de reconfiguration, on insiste généralement sur les phénomènes de sur-confiance (délégation aux automatismes) qui peuvent en découler, ou encore sur la difficulté pour les opérateurs humains de revenir dans la boucle en cas de défaillance du système. Mais le principal danger que j’aperçois réside plutôt, me semble-t-il, dans le développement de phénomènes que je qualifierai d’anomiques au sens où l’engagement (y compris corporel et sensoriel) dans une situation n’offre plus de garantie quant à sa signification réelle, mais aussi morale. En l’absence d’extériorité, d’un point d’où il serait permis de prendre des distances, la situation comme le réel lui-même, deviennent d’une certaine manière des « choses » auxquelles il est demandé de croire sans paroles. S’ensuivent des situations marquées, comme je l’ai dit, par l’ambiguïté, mais surtout par un retard de plus en plus important de la conscience sur les décisions qui sont prises. La réalité produite par le système technique ne fait pas qu’introduire un niveau de réalité supplémentaire qui viendrait s’ajouter, s’additionner aux réalités précédentes et plus coutumières (comme dans le discours sur la réalité augmentée), elle modifie les cadres de l’expérience, c’est-à-dire les modalités au travers desquelles nous nous rapportons au monde et aux autres.

Y être sans y être vraiment : l’expérience morcelée
L’avertissement d’un risque de « désensibilisation », ou de « déshumanisation » est ainsi signalé par un glissement sémantique. La Liaison 16 — dit ce jeune pilote — ça restait de la science-fiction. Maintenant, je sais ce que ça veut dire et c’est phénoménal. Pouvoir tirer sur un mec sans contact. Son info à lui va être suffisante pour lui tirer dessus. Votre équipier vous lance une info et vous tirez sur cette info. C’est ça la Liaison 16 (pilote de Rafale). « Tirer sur une info », n’a évidemment pas la même signification que « tirer sur quelqu’un », un autre soi-même, fut-il un combattant ennemi. La figure de l’ennemi finit d’ailleurs elle-même par devenir floue, presque irréelle, jusqu’à se transformer en avatar. Bien entendu, « tirer sur l’info » peut être interprété comme la forme actualisée d’une représentation du réel commune aux pilotes d’hier et d’aujourd’hui, un pilote de chasse ne faisant jamais que viser un point, une coordonnée, une cible à travers un collimateur.

Mais, outre le mode d’affichage de la cible, le changement ici repose sur la possibilité de tirer depuis la vision d’un « autre », ou pour être précis, sur l’information transmise par des capteurs déportés (radar des autres avions, Awacs, satellite, système optique d’un drone), c’est-à-dire depuis une réalité presque entièrement automatisée (où les décisions humaines apparaissent de moins en moins). Ce qui se dévoile ici en filigrane, c’est aussi un tout autre rapport d’exposition à la mort. Le point capital n’est pas que les gestionnaires de systèmes, rivés à leurs écrans de contrôle, aient perdu les valeurs de courage et de sacrifice (par la mise en danger de sa propre vie et le principe de réciprocité dans la mort) chères à l’éthique militaire. Il serait aisé de montrer que ces valeurs continuent de susciter l’adhésion, et dans une large mesure, de structurer encore l’identité du combattant. Le point important est qu’un type d’expérience du réel se met en place qui altère non seulement l’idée de communauté de destin, mais peut-être, de manière plus essentielle, l’idée de commune humanité, y compris sous la figure de l’ennemi. Ce ne sont donc plus seulement les « autres » qui meurent, c’est la notion même d’altérité. L’information n’est pas un autre soi-même, ni même un ennemi.

Nous revenons à notre point de départ, le principe à la base des technologies numériques d’une dissociation entre l’expérience sensible et les supports de la connaissance, c’est-à-dire les modalités à partir desquelles nous entrons en relation avec le monde, sommes présents à lui. Dans l’expérience qui vient d’être évoquée (celle de la Liaison 16) ce n’est pas seulement la communication ou l’action à distance, qui bouleverse les cadres de l’expérience, c’est le fait nouveau que les technologies immersives parviennent à simuler la coprésence en annulant la distance. Le pilote éprouve le sentiment d’être au centre du monde, du théâtre d’opérations, alors qu’il en est plus radicalement coupé qu’auparavant. C’est donc moins la distance physique, la mise à distance d’autrui, qui caractériserait l’époque actuelle, que l’absence de distance, de formes et de médiations symboliques capables d’aménager un terrain favorable aux relations. Le changement de nature de l’expérience sensible dans les environnements numériques nous avertit alors du risque d’un rétrécissement de la capacité à imaginer, au-delà de l’image, un autre soi-même, une extériorité et plus simplement une autre situation que celle qui est donnée à voir sur les écrans. Et c’est à la disjonction aussi bien qu’au télescopage des niveaux d’expériences, des espaces et des temps, comme des êtres entre eux, que nous enjoignent de réfléchir l’unité et l’immédiation factices des univers numériques (Dubey & Moricot, 2008).

Ce phénomène est encore amplifié dans le cas des opérateurs de drones qui exécutent des actions de guerre depuis un monde en paix, déposent leurs enfants à l’école le matin et viennent les rechercher le soir en ayant entre-temps commis des actes de guerre. La relation entre l’expérience de la présence et le lieu de l’action est ici complètement abolie. L’expérience que les opérateurs ont de la situation est à la fois augmentée (par les capteurs infra-rouge par exemple) et diminuée au sens où elle est réduite à quelques canaux d’informations filtrées. De nouveaux problèmes émergent, exacerbés par la nature même de l’activité, et sans doute spécifiques aux situations de guerre. Ainsi, un opérateur de drone n’est plus, à proprement parler, un combattant puisqu’il ne met en jeu que la vie des autres. La valeur associée au courage est congédiée, le fait de tuer devient moralement et socialement injustifiable et s’apparente de plus en plus à un meurtre (Gros 2006, Chamayou 2003).

Mais ces phénomènes nous informent aussi sur ce qui est implicitement en train de se jouer derrière les environnements numériques, sur la manière dont ils affectent nos modes de présence au monde. Le malaise suscité par la situation des opérateurs de drones ne fait pas que révéler les limites de cette manière de faire la guerre (sans la faire, avec la mauvaise conscience qui va avec), mais d’une attitude plus générale face à la vie. Il y a un impensé des technologies numériques, qui constitue un de leurs soubassements idéels, et que la pratique vient mettre à l’épreuve : à savoir qu’une vie qui aurait ni à s’exposer, ni à échanger, ni à s’altérer (au sens propre, d’être en relation avec ce qui est autre) pourrait, sur la base de ce refus, indéfiniment se conserver. Bien entendu, l’inconfort éprouvé par les opérateurs de drones (qui n’a rien à voir avec le syndrome post-traumatique des combattants auquel on l’a parfois comparé) témoigne du contraire et, au moins par défaut, du fait que la vie n’a de sens que transportée hors d’elle-même, comme relation, confiance et pari sur autrui.

Gérard Dubey
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

 

Gérard Dubey est professeur à Télécom École de Management et chercheur au Cetcopra (Centre d’Études des Techniques, des Connaissances et des Pratiques), Université Paris 1 / Panthéon-Sorbonne.

(1) Baudrillard, J. 1968. Le système des objets. p. 74-75.

(2) Reprenant l’exemple des usages de la CAO (Conception Assistée par Ordinateur) en architecture, Richard Sennet précise, dans un ouvrage récent consacré aux savoirs de la main : Des applications sophistiquées de la CAO modélisent les effets sur la construction du jeu changeant de la lumière, du vent ou des variations de températures saisonnières. (Mais) si fastidieux que ce soit, dessiner des briques à la main oblige le dessinateur à réfléchir à leur matérialité, à s’interroger sur leur solidité (…) Ce qu’on voit à l’écran est d’une cohérence impossible, l’image est structurée et unifiée comme on ne le verra jamais dans la réalité. (…) La simulation est (…) un piètre substitut de l’expérience tactile. (…)Le difficile et l’incomplet devraient être des évènements positifs de notre intelligence ; ils devraient nous stimuler comme ne sauraient le faire la simulation et la manipulation d’objets complets. Le problème (de l’informatisation) ne se réduit pas à l’opposition main/machine (…) le problème (…) est que les gens peuvent laisser faire cet apprentissage, la personne n’étant plus qu’un témoin passif doublé d’un consommateur de cette compétence croissante au lieu d’y participer. » (Sennett, R. Ce que sait la main, Paris, Albin Michel, 2010, pp.58-59-61-62-63)

(3) Il y a des choses représentées qui sont fausses. Tout cela a été filtré. D’autres infos manquent. En fait, il y a des domaines où l’information présenté est partiellement fausse ou totalement. Le système présente par exemple toutes les pannes. Il interprète une fausse alarme pour une vraie. Nous on parvient à dire que ce n’est pas cohérent alors que la machine n’en est pas capable… (Pilote de Rafale).

c’est le monde qu’on numérise !

Les développements de l’outil numérique, que d’aucuns n’hésitent pas à considérer comme une véritable « révolution », redonnent vie à des mythes plus anciens et à des perplexités oubliées.

Leibniz fut parmi les premiers à avoir placé ses espoirs dans l’idée d’une « encyclopédie » et d’un ars inveniendi qui s’enrichiraient non seulement de toute l’étendue du savoir rendu disponible, mais des vertus présumées d’une « caractéristique universelle ». La mathesis universalis de Descartes n’était certes pas loin, mais Leibniz, à la différence de l’auteur du Discours de la méthode, avait compris tout le parti pouvant être tiré d’une écriture qui préfigurait, à certains égards, la Begriffschrift du philosophe allemand Gottlob Frege (1). Sur ce terrain, la littérature a elle aussi contribué à nourrir notre imaginaire de perspectives inouïes, à vrai dire infinies, sur lesquelles paraissent s’ouvrir les projets d’écriture ou de bibliothèque universelles associés à la formalisation et à l’usage d’automates. Jorge Luis Borges en a fait le sujet de plusieurs de ses nouvelles, « La bibliothèque de Babel », notamment, et Italo Calvino, en s’abandonnant à son inspiration oulipienne, a poussé plusieurs fois le paradoxe jusqu’à imaginer une littérature qui rendrait contingente la figure de l’auteur (2).

Ces expériences de pensée illustrent les paradoxes sur lesquels — en littérature, comme en logique ou en philosophie — les perspectives évoquées ont débouché. La bibliothèque de Borges, bien qu’infinie en son principe, ne garantit en rien que tous les livres qui en font potentiellement partie s’avéreront lisibles, ni qu’ils le resteront; quant aux vertus de la machine de Calvino, elles s’ouvrent sur des perplexités qui ne sont pas moins grandes que les paradoxes liés à l’idée d’une « bibliothèque des bibliothèques » ou d’un livre qui contiendrait tous les livres (3). De telles perplexités appartiennent-elles au passé ? D’une certaine manière les logiciens en ont eu raison, mais les rêves qui leur étaient liés ont emprunté d’autres voies que les « nouvelles technologies » leur ont ouvertes leur offrant ainsi une nouvelle chance. La numérisation en constitue le nerf.

La conviction qui confie au médium numérique toute la charge d’une révolution n’y joue pas un moindre rôle; celle qui étend cette révolution à ce que seront la littérature et l’art de demain n’en est que le prolongement (4). Bien entendu, nul ne sait de quoi demain sera fait; on peut tout au plus étendre à un hypothétique futur les lignes du présent, car le temps marche rarement en ordre serré. Le seul point susceptible de justifier un minimum d’assurance, comme pour les questions de simple logique, s’applique à ce qui se peut induire d’un point de vue strictement technique et conceptuel dans les différents champs d’application. Quant au médium, on observera en tout cas que les avantages de la numérisation, bien qu’ils tendent à se concentrer dans une dématérialisation qui en facilite la diffusion, n’en restent pas moins subordonnés à des conditions de production et de conservation qui échappent aux auteurs autant qu’aux éditeurs. L’immatérialité supposée y rencontre ses limites dans les ressources techniques mises sur le marché, bien au-delà des contraintes qui ont toujours pesé sur la fabrication du livre et sur ses conditions d’accès.

Le livre est à la source de possibilités d’accès qui ont joué le rôle que l’on sait dans l’extension de l’écrit au sein des cultures ayant remplacé la transmission orale par la communication écrite. Les conséquences en ont bouleversé les conditions de la connaissance, de l’art, de l’exercice du pouvoir et du droit. Le « médium numérique », bien qu’il soit peut-être en passe de réaliser une mutation comparable, ne modifie cependant pas nécessairement les contenus et les enjeux sur lesquels il débouche. Le postulat sur lequel beaucoup prennent aujourd’hui appui en invoquant les principes que Mac Luhan a initialement défendus : « Le message c’est le médium », laisse trop aisément croire que le seul médium porte en lui les révolutions à venir ! Bien sûr, aucun « message » ne peut être dissocié du « médium » auquel il est subordonné, sauf à céder à un nouveau « mythe de la signification », dans les termes de Quine ou à s’exposer inutilement aux vertiges de l’ineffable, mais ce serait une erreur d’en tirer que pour tout « message », il existe un médium et un seul qui lui soit adapté ou de postuler que les conditions de la signification dépendent intégralement du médium. En réalité, le choix d’un médium, et surtout son usage généralisé, ne se sépare pas de conditions qui affectent la société dans son ensemble ni des processus d’interaction qui la constituent. Pour apprécier la portée d’un médium, il faut le situer dans des contextes d’usages qui communiquent avec ce que Wittgenstein appelait une « forme de vie », ou si l’on préfère une culture.

C’est pourquoi il n’est pas seulement absurde de tenir le médium en tant que tel pour déterminant, mais tout aussi absurde de penser que les techniques induisent par elles-mêmes des effets dont elles seraient les seules causes, abstraction faite des conditions sociales, économiques et politiques dont elles sont étroitement solidaires. C’est un vieux problème que posent déjà les suggestions de Walter Benjamin, dans son célèbre essai sur la « reproductibilité technique », trop souvent interprétées dans ce sens obtus (5). La digitalisation de l’information, y compris dans les usages de plus en plus nombreux qui en sont faits dans l’édition, la production des images ou les pratiques artistiques (vidéo, installations interactives, etc.), n’échappe pas à la règle, la pire naïveté étant de croire que la mobilisation des ressources qu’elle offre suffit à apporter une garantie de nouveauté ou d’originalité. Les seuls enjeux économiques qui leur sont liés suffisent à dire combien ces questions sont subordonnées à des finalités ou à des intérêts qui excèdent de beaucoup les seules ressources techniques et les ambitions dont elles sont investies.

On ne peut certes en ignorer pour autant la réalité ou les promesses. Dans le champ artistique, les perspectives initialement associées à l’Internet ont parfois pris le relais de l’art « relationnel » thématisé par Nicolas Bourriaud en 1995 (6). Elles ont été assimilées à une « dématérialisation » qui, tout en privant les objets de tout autre intérêt que celui de leur place dans le réseau des échanges d’information, s’ouvrait sur un art soucieux de s’affranchir des contraintes du marché, quitte à entrer dans une « invisibilité », c’est-à-dire à une clandestinité de résistance. C’était toutefois ignorer ce que Paul Devautour a clairement diagnostiqué en montrant ce que cette « échappée hors du marché de l’art » comportait d’illusoire dès l’instant où l’information devenait un enjeu commun à l’économie et à la pratique artistique. Dans les deux cas, en réalité, l’idéologie dominante de la « relation » ou de la « connexion » ne laisse potentiellement plus aucune place à quelque interstice ou à quelque blanc que ce soit (7).

Les discussions qui ont actuellement lieu en matière de propriété intellectuelle et de droit d’auteur buttent sur des difficultés liées à cette situation, en ce que s’y opposent une ontologie ancrée dans un régime individualisé des œuvres et des artistes et les perspectives d’une économie qui en accomplirait le démantèlement en rentabilisant les seuls flux et réseaux d’information. Les apories sur lesquelles cette situation débouche conjuguent aux ressources de la digitalisation et de l’Internet les perspectives d’un marché débarrassé des inutiles entraves que lui oppose encore la fétichisation de l’art et de la marchandise. Dans l’état de confusion qui en résulte, les points de vue s’enchevêtrent et les contradictions vont bon train, comme toutes les fois où les résistances issues d’un passé encore présent s’opposent à un futur pressenti ou attendu, laissant entrevoir d’autres règles, d’autres chances et d’autres périls. Il n’est pas étonnant que les mutations dont beaucoup postulent l’imminence débouchent tantôt sur une adhésion militante, tantôt sur une hostilité de principe ou sur le sentiment d’un déclin auquel nul ne peut échapper. La question du livre, qui n’en est qu’une variante, en offre une illustration.

Comme l’a justement fait observer Roberto Calasso dans un essai récent (8), le mot « livre » désigne un objet individualisé dont le contenu est protégé par une couverture — qui en marque l’intégrité physique — et par des droits spécifiques qui en garantissent l’authenticité et la propriété. Le livre, comme beaucoup d’autres choses, présente cette particularité d’exister sur un mode multiple (selon un régime allographique) sans être privé de son individualité (le « faux » y prend la forme du plagiat). En un sens c’est ce qui différencie un livre d’un texte. Les textes circulent plus facilement que les livres; ils s’accommodent aussi plus aisément de l’anonymat; l’auteur y paraît moins essentiel, peut-être parce qu’il vise prioritairement la transmission d’une information. En ce sens, les thèses de Mac Luhan s’appliquent plus aisément à un « texte » qu’à un « livre ». Or cette distinction pourrait bien être en train de s’effacer sous l’effet conjugué des ressources de l’Internet et des comportements qu’il induit ou facilite.

La numérisation des livres rendus accessibles sur l’Internet se fait en réalité au bénéfice des « textes »; du livre, elle annule peu à peu l’intégrité et l’individualité, l’obstacle de la couverture ayant été techniquement supprimé et celui du droit étant en passe de l’être ou d’être sérieusement modifié (9). Ce n’est pas un hasard si les comportements qu’on observe chez les élèves ou les étudiants, voire chez les chercheurs, conduisent à remplacer la référence à des « livres » par une référence à des « textes ». L’Internet remplace pour beaucoup la bibliothèque, et les livres numérisés rendus disponibles viennent se fondre dans une masse potentiellement infinie de « documents » dont le statut n’est pas seulement techniquement égal, mais fonctionnellement et ontologiquement équivalent ou compatible. Notre langage, sur ce point, est révélateur. Les textes numérisés se mêlent, sur le même support et dans le même idiome, aux images, à la musique ou au son, pour offrir au consommateur les ressources d’une médiathèque, plus que d’une bibliothèque, rassemblant en elle la pluralité des modes de description et de symbolisation du monde.

Ces possibilités nouvelles ne sont évidemment pas sans fonder des espoirs dont on trouve une expression caractéristique dans une chronique de Kevin Kelly, parue dans le New York Times Magazine sous le titre éloquent : « Par quoi le livre sera-t-il remplacé ? » (10). L’utopie dont les déclarations de Kelly participent est précisément celle de la connexion généralisée : « accélérer la migration de la totalité de notre savoir dans la forme universelle des bits digitaux ». La digitalisation doit permettre à l’humanité de réaliser l’un de ses plus anciens rêves : concentrer toute la connaissance, la plus neuve comme la plus ancienne, en un lieu unique qui, bien entendu, ne peut être qu’un non-lieu. Ce rêve est aussi celui de Google, depuis 2004. Dans son article, Kelly n’hésitait pas à donner des chiffres : il existe à l’heure actuelle à peu près trente-deux millions de livres numérisés. La digitalisation généralisée s’accomplit à travers le scannage de milliers de livres et de textes, autant que de documents de toutes sortes, nourrissant ainsi en un flux permanent un unique livre, « livre universel » ou « livre-monde », comme on voudra, dont le statut devrait être celui du livre ultime, annulant tous les autres et échappant ainsi au paradoxe du livre des livres ou de la bibliothèque des bibliothèques. Ce livre est à lui seul un monde : le monde numérisé ! Ce monde sans trous, d’aucuns diront probablement « sans âme », est-il dès lors encore un monde ? La question ne trouve évidemment pas sa réponse dans une théorie qui en dévoilerait la nature ou le fondement ultime; elle réside bien davantage dans les processus qui s’y trouvent en jeu et dans les conséquences qu’il est permis d’en attendre ou d’en redouter. Nous sommes embarqués, disait Pascal dans un texte célèbre, ce qui n’était qu’une autre façon de dire à quelle responsabilité nous sommes confrontés.

Jean-Pierre Cometti
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

Jean-Pierre Cometti a enseigné la philosophie à l’Université de Provence. Il est l’auteur de plusieurs ouvrages, parmi lesquels Art et facteurs d’art : ontologies friables (Presses Universitaires de Rennes, 2012).

(1) Leibniz, De arte combinatoria (1666); Descartes, Règles pour la direction de l’esprit (1626); Frege, Begriffsschrift (1879, trad., L’idéographie). Les paradoxes du type de la bibliothèque sont ceux qui frappent les classes (ou les ensembles) et la relation d’appartenance (Bertrand Russell, The Principles of Mathematics, 1903).

(2) Jorge Luis Borges, in Fictions (1941, trad., Gallimard). Le rêve, chez Borges, débouche sur un cauchemar ; Italo Calvino, « Cybernétique et fantasmes » (1967), dans La machine littérature. L’auteur n’est-il pas une machine et une machine ne pourrait-elle pas être auteur ?

(3) Les apories auxquelles le texte de Calvino est lié reposent sur l’idée d’un automate littéraire. Elles concernent l’identité de l’œuvre et ce qui revient à l’auteur, à ses intentions, ses qualités spécifiques, etc.

(4) Certains n’hésitent pas à y voir « un nouveau territoire pour la créativité », ouvert à des expériences nouvelles et notamment à une interactivité désormais passée au rang de nouveau.

(5) Walter Benjamin, « L’œuvre d’art à l’ère de sa reproductibilité technique », dans Œuvres 3, Gallimard, Folio.

(6) Nicolas Bourriaud, L’esthétique relationnelle, Les Presses du Réel, 1998.

(7) Voir Paul Devautour, texte d’une vidéo-conférence de novembre 1996 à Saint-Denis : « invisibilité de l’art en réseau » (www.ciren.org/ciren/conferences)

(8) L’iimpronta dell’editore, Piccola Biblioteca Adelphi, 2013.

(9) La couverture rend le livre réfractaire aux opérations de numérisation, bien que ce ne soit plus le cas. Elle préside significativement au rangement et à la disposition des livres dans une bibliothèque.

(10) Cité par R. Calasso, p. 38. Kelly a fondé le magazine Wired, il est aussi l’auteur du livre What Technology Wants (2010).

l’hypothèse intentionnelle

Internet a été immédiatement investi par les paradigmes de l’espace. Mais dès lors que nous examinons son processus, est-ce qu’il ne s’agirait pas de percevoir, en quel sens, la digitalisation des activités humaines n’inaugurerait pas une forme de cartographie de la conscience en général, permettant alors la réduction de l’homme à seulement des processus déterminés ?

Borgès, dans La rigueur de la science, cite un auteur imaginaire du XVIIème siècle, Suarez Miranda, qui parle d’un Empire, où l’art de la carte a été à un tel point développé, qu’au lieu de correspondre à une réduction, la carte de l’Empire fut faite à l’échelle 1. Son texte entre en résonance avec celui de Lewis Caroll, dans Sylvie et Bruno, roman de 1893, dans lequel deux interlocuteurs discutant de l’art de la cartographie en arrivent à poser « l’idée la plus grandiose de toute » à savoir la réalisation d’une « carte du pays à l’échelle d’un mile pour un mile ».

Dans chacun de leur texte, les auteurs montrent que ce n’est pas immédiatement que l’on en vient à penser une carte à l’échelle 1, mais que c’est progressivement, comme s’il s’agissait téléologiquement du seul horizon de cette intention de report du réel dans l’espace cadastré et normé de la carte. L’échelle 1 serait l’assomption de la cartographie : dupliqué absolument le réel dans l’espace symbolique de la carte, saisir le réel exactement et sans reste. L’épuiser et le dominer. Ces deux textes proposant un tel défi, montrent cependant l’impossibilité de cette téléologie, en effet, la carte matérielle pour être à l’échelle 1 devrait recouvrir l’espace réel, ceci amenant à cette conclusion dans le récit de Lewis Caroll, que la « carte ne fut jamais déroulée ».

Toutefois, avec l’informatique puis Internet, et la virtualité de ses dimensions, ce qui paraissait absurde à la fin du XIXème siècle ou au milieu du XXème siècle semble bien pouvoir devenir une réalité. En effet, du fait que les dimensions ouvertes par l’informatique sont virtuelles, il est tout à fait possible de penser que nous établissions une carte à l’échelle 1 du monde, une carte redécalquant sans réduction toute aspérité, tout site du monde. Cependant, avant d’acquiescer à une telle hypothèse, il est nécessaire de bien comprendre ce qui se joue avec Internet et les réseaux, à savoir quel serait le but d’une cartographie.

Le vocabulaire d’Internet est celui du tissage, du site comme espace qui est déplié. Le langage servant à désigner cette réalité et ses pratiques est issu de l’analogie au monde réel et à certains types de déplacement : la toile, le site, la navigation, l’espace, l’ancre, l’adresse… Toutefois, ce recours ne peut qu’apparaître maladroit d’un point de vue analytique.

Ce qui domine au niveau du vocabulaire est l’analogie à l’espace. Mais de quel espace parle-t-on ? Matériellement le seul espace réel lié aux réseaux est celui des machines (localisation par IP) et des centres de data permettant le stockage. Quant à la réalité des contenus, nous ne faisons face qu’à leur virtualité. Ici la différence avec le monde réel est nette. Lorsque nous sommes sur une plage, loin d’être face à une fenêtre, nous sommes immergés dans un monde.

Certes, si je suis sur une plage de la Côte sauvage, en Charente, les paysages du Japon ou du Kenya sont virtuellement présents au niveau intentionnel, et ne sont pas réels, mais le vécu de sens est celui d’un être au monde, qui par contiguïté, devine la continuité géographique du point où il est, aux multiples points de par le monde. Lorsque nous faisons l’expérience d’Internet : nous faisons face à une fenêtre/écran où l’interprétation des codes déplie spatialement sur l’écran une réalité symbolique.

Nous ne sommes pas un être-au-monde, mais un être-face-à. Il n’y a pas d’immersion. Cette non-immersion tient précisément du fait que la virtualité des contenus des réseaux n’est pas de l’ordre de l’espace continu, mais de points absolument détachés les uns des autres. Nous ne surfons pas entre les sites, comme le laisse croire l’analogie de la navigation, mais nous sautons d’un point à un autre. Il n’y a pas de passages, il n’y a pas de distance, mais il y a sautillement par à coup. Nous pourrions retrouver ici, mais au niveau de l’espace, la distinction bergsonienne du temps : l’espace physique du point de vue du vécu de sens est continu et hétérogène, alors que la réalité des réseaux est un espace discontinu et homogène (l’écart type étant celui de la vitesse des réseaux).

Ceci vient du fait qu’Internet, loin de correspondre à la notion d’espace, en est justement détaché. Si la question d’une cartographie peut se poser, ce n’est pas dans le sens d’une géographie, ou géodynamie, mais bien plus dans l’horizon originel de la topique freudienne. À savoir au sens de la représentation condensée de mécanismes et processus intentionnels humains (1).

Ainsi, il serait tout à fait possible de percevoir autrement la question de la cartographie : non plus celle de saisie des lieux, mais de saisie des pensées humaines, à savoir de ce que pourraient être ses intentionnalités. En effet, Internet, en tant qu’espace sans épaisseur, est d’abord le dépliement virtuel de gestes de la pensée, d’horizons intentionnels de l’homme.

Dès lors, si cette hypothèse est avérée, quels sont les enjeux possibles d’une saisie des structures, liaisons et pratiques liées à Internet ? En quel sens, mettre en évidence que ce qui est possiblement cartographiable est de l’ordre de l’intentionnalité humaine et de sa variation factuelle, empirique, ouvre un champ de maîtrise du sujet, voire de se réduction phénoménale à des logiques absolument déterministes ?

Condensateur intentionnel
Les sites web et leur référencement ne sont pas d’abord et avant tout des espaces, mais bien des constructions intentionnelles. Ici il faudrait référencer et catégoriser chaque site et percevoir en quel sens il correspond à une forme intentionnelle : se renseigner sur l’actualité, faire la cuisine, suivre le sport, se divertir, se cultiver, apprendre, désirer, rencontrer, se masturber, collectionner, travailler, écrire, publier, etc. Anne Cauquelin, même si elle n’en faisait pas l’objet de sa recherche précisément, en avait une parfaite intuition : les nœuds qui constituent la réalité de la carte des réseaux ne sont pas seulement les rencontres de plusieurs tracés de communications électroniques, ce sont (…) des mouvements de pensée et des conceptions qui s’y réfléchissent (2).

Certes, les sites référencent et ordonnent des informations, toutefois, il s’agit de dépasser ce simple constat pour bien comprendre qu’ils sont d’abord des sédimentations intentionnelles de notre humanité. Il est nécessaire de distinguer le geste intentionnel et d’autre part le résultat de cette intentionnalité : son contenu. Ainsi, si en effet Jacob Appelbaum a raison de dire dans un entretien au Monde (du 13 décembre 2013) que : Tout va empirer. En collectant sans cesse des masses de données vous concernant, le système de surveillance fabrique votre doppelgänger numérique, un double qui devient plus vrai que vous, et de là de souligner les erreurs de profile, reste que la finalité, n’est pas tant celle de la maîtrise des activités individuelles que le prototypage du comportement général et, de là, la maîtrise des actions individuelles.

Les sites mettent en évidence des intentions de l’homme, et ses intentions elles-mêmes sont classées et pourraient être cartographiées, aussi bien géographiquement (par l’analyse des IP des sites) que socialement, économiquement, ethniquement. Mais, comme cela a été maintes fois énoncé, ce sont les centres d’intérêt qui amènent les associations d’internautes. Si dans son ensemble Internet est un agrégat, dès lors que nous considérons les centres d’intérêt, nous avons à faire à des associations d’individus qui partagent un trait intentionnel commun, qui constituent des sphères ou des cercles. En ce sens les graphes sociaux, qui ont pris leur ampleur avec les plateformes sociales comme Facebook entre autres, montrent parfaitement comment il est possible de créer ce type de correspondance.

Ce qui signifie que ce qui se déplie lorsque nous examinons la diversité des sites, blogs, réseaux sociaux sont des types intentionnels de la conscience humaine. La mention que je faisais en introduction à Freud et son effort répété de construction topique s’éclaire davantage. Ne plus s’attacher d’abord aux contenus, mais saisir la diversité de la pensée humaine qui se donne virtuellement en accès libre au niveau de la synthèse technologique d’Internet.

Internet est une forme de schémas confus à première vue de l’ensemble des horizons d’opérations et de polarisations de la conscience. C’est en quelque sorte une carte mentale du fonctionnement de la conscience, de sa manière d’associer des intentions, de se focaliser, de se déplier. Par exemple : si je cherche le mot astrophysique sur Google (525 000 résultats) il est évident qu’au niveau de la polarisation intentionnelle de la conscience je parviens à un résultat absolument inférieur à ce que pourrait être la recherche du mot sexe (43 100 000 résultats). Ce qui se révèle c’est que l’intentionnalité générale de la pensée se focalise plus sur la question sexuelle que sur les questions d’astrophysique.

Ce à quoi me donne accès selon la logique cartographique Internet, ce n’est pas à l’espace, mais à un schéma des focalisations intentionnelles de l’homme. Internet est d’abord et avant tout phénoménologiquement un condensateur des intentionnalités de l’homme et de ses procédures d’association. C’est pourquoi autant de recherches se font sur les pratiques humaines, sur la question des modalités relationnelles.

Mais ici, il s’agit pour nous justement de prendre recul face à toute focalisation et de bien comprendre que c’est une topique générale de la conscience que nous tentons de comprendre et d’esquisser. Ainsi, s’il n’y a pas de passages comme je le disais entre les sites, mais des sauts, il y a pourtant des formes de passages qui peuvent être perçus, ceux-ci mettant en lumière les possibles associations, liaisons, correspondances entre intentionnalités (3).

En effet, ce qui se lie, est de l’ordre de l’association de pensée. Si je recherche voiture tuning, au niveau des images qui ressortiront sur le moteur de recherche Google, je verrai associées certaines images de voiture à des corps féminins très dévêtus, avec des poses aguicheuses. Au contraire, si nous tapons structure atomique, aucune association à l’érotisme féminin n’apparaîtra, seules des photographies de chercheur viendront entrecouper, les représentations d’atomes et de structures atomiques. Le référencement méthodique donne accès aux schémas d’association intentionnels, à savoir ouvre d’un point de vue architectonique, en quel sens la pensée humaine crée du lien quant à ses polarisations.

cookies world
L’heure est au fantasme de la mémoire universelle et absolue. On nous parle des data-centers, du data-clouding, de la possibilité de tout retrouver à chaque instant de notre vie numérique. Comme si, l’essentiel se jouait là, une omni-science à soi et aux autres quant à l’archivage. La question de la digitalisation, n’est pas d’ordre statique, mais derrière l’apparence, elle est de l’ordre dynamique. Pour le sujet : la digitalisation du vécu comme automatisme serait là comme garantie de sa propre existence. J’existe, car je m’enregistre.

Or, ce qui est derrière la digitalisation des vécus, ce ne sont pas les contenus, mais les trajectoires, les arborescences de trajectoires de chaque sujet, et ses choix. Le véritable archivage n’est pas le contenu que tel ou tel dépose, mais le fait qu’il ait déposé ceci ou cela (logique des tags) sur tel site. L’archivage est celui de la relation, de la connexion et non pas de la donnée. C’est pourquoi ce qui importe pour toutes les entreprises du web est d’abord la logique des cookies.

Les cookies permettent de définir les relations qu’entretient au niveau des réseaux un usager. Ils permettent ainsi d’établir une forme de portraits de l’intentionnalité de l’internaute : que cela soit au niveau de ses achats, de la fréquentation des sites, des relations à d’autres usagers. Les cookies ainsi permettent de tracer des dynamiques intentionnelles, et delà de proposer des cartographies dynamiques des centres d’intérêt. Dès lors la digitalisation, en effet tente de dupliquer un réel, mais non pas celui du monde, mais celui de la conscience.

Nous passons depuis quelques années du web 2.0, qui a été l’inter-communicabilité intra-réseau, au web 3.0 qui se constitue par l’inter-opérativité de technologies qui ne sont plus liées immédiatement au réseau de prime abord, à savoir qui s’échappent de la logique de l’écran. Cette inter-connectivité est la nouvelle phase de processus typologique des pratiques humaines et de leur quantification.

Ainsi, si on observe les objets connectés, il s’agit de bien saisir et quantifier les pratiques intentionnelles. Si on considère la prochaine mise sur marché, de la société de Rafi Halajan, qui avait créé le Nabaztag, il s’agit de commercialiser un objet connecté qui s’appelle Mother. Mother va interconnecter des cookies physiques qui peuvent être posés sur divers objets afin d’examiner des pratiques. Ces cookies vont aussi bien s’adapter au frigidaire, qu’à la porte d’entrée, à un cartable, une brosse à dents comme le montre le teaser servant à lever les fonds d’investissement.

Bien plus développés que ce que peut être le Nike+ FuelBand, Mother et ses applications pourront schématiser l’ensemble des intentions d’une famille, et dès lors générer des schémas comportementaux. Ici, ce qui apparaît n’est pas tant la question de la réalité augmentée dans laquelle nous sommes, ni même celle de l’autonomie de la machine, qui reste en dernier ressort de l’ordre du fantasme si on projette une forme intentionnelle, mais bien la logique de cartographie de notre conscience de son mode de fonctionnements. De même la nouvelle fonction iBeacon lancée par Apple sur les iPhone va dans le même sens. Interagir avec le client dans une boutique à partir de ses centres d’intérêt.

Cet Internet des objets ou des procédures est ce qui est au cœur de la surveillance de la NSA, dévoilée par Snowden. Ce qui doit être pensé dans cette affaire, notamment, la récente mise en lumière de la surveillance des téléphones portables, tient non pas seulement le niveau communicationnel, mais aussi au niveau des déplacements de leur propriétaire. Cette logique du traçage des pratiques est au cœur de même de tout usage de cartes ou capteurs liés à la société de consommation. On perçoit que la possibilité offerte tend à l’inversion de la cause et de l’effet. Il ne s’agit pas tant de prendre en compte que de pouvoir anticiper selon des modalités statistiques les possibles processus humains et delà de pouvoir les provoquer.

Google montre la voie avec ses graphes épidémiques de la grippe par exemple. Ceux-ci permettent de percevoir et d’anticiper le développement de la maladie à partir d’analyse des requêtes avancées de son moteur de recherche. Certains termes de recherche semblent être de bons indicateurs de la propagation de la grippe. Afin de vous fournir une estimation de la propagation du virus, ce site rassemble donc des données relatives aux recherches lancées sur Google, est-il écrit en bandeau de ce graphe. Internet et la digitalisation sont donc une logique de globalisation des processus individuels selon la volonté de constituer la réalité non pas communautaire, mais synthétique de l’homme, en tant qu’organisme global constitué de particules.

L’épuisement de la singularité
L’ensemble de ces tentatives montre que ce qui est recherché, c’est la réduction de la part singulière de l’homme, sa part imprévisible, son individualité, au profit de la conception techno-synthétique de l’humanité. La digitalisation et la cartographie sont celles de la pensée, non plus individuelle, mais collective et dès lors par le renversement cause/effet, c’est la possibilité de mettre à disposition de puissances symboliques ou économiques, le devenir temporel de l’homme.

Si ce type de paradigme ressort parfaitement de film comme Minority report de Spielberg, reste que bien avant, avec les pères de la cybernétique, cela a pu être annoncé. En effet, si on en revient à David Aurel et son livre La cybernétique et l’humain (4), était déjà mis en perspective le projet de la cybernétique : réduire l’homme et ses intentionnalités à un ensemble d’équations déterministes, repoussant la question de la liberté à ne plus être rien. David Aurel, dans un de ses schémas, reprenant la question de la liberté telle qu’elle a été proposée par Descartes, explique que l’analyse des mécanismes intentionnels de l’homme, permet de voir en quel sens son comportement peut être réduit à des calculs d’intérêt, ou encore des procédures de réactions spécifiquement déterminables, ceci impliquant de réduire la liberté à un presque rien (5).

La volonté de digitaliser, cartographier, ordonner, référencer indéfiniment n’est pas du tout dans la logique de la connaissance, mais du contrôle. Le savoir est subordonné au pouvoir : la question de l’action dépasse la question de la théorie selon une dialectique du contrôle. On ne peut que rappeler ici ce que Heidegger, dans sa critique de l’ère technique, en tant que cybernétique mettait déjà en évidence : l’homme est vidé de son humanité, au sens où la technique le réduit lui-même à n’être seulement qu’un étant parmi les étants (6).

La logique de cartographie liée au réseau repose ainsi sur la certitude, elle-même refoulée, que l’homme se réduit à un étant que l’on peut absolument, et sans reste, réduire à un déterminisme fonctionnel, donc chaque partie par sa variation traduit des formes d’intentionnalité de la globalité organique. Dès lors, pour conclure, si l’optique de Dominique Cardon (7) est assez juste, à savoir l’abolition des espaces en clair-obscur afin de les porter à la lumière des moteurs de recherche, on ne peut que se séparer de sa conclusion. La cartographie intentionnelle qui peu à peu se répand et s’accélère avec le web 3.0, est de l’ordre de la saisie de l’intentionnalité humaine en tant qu’entité globale en vue de sa domination par des logiques économiques et donc idéologiques.

Nous retrouvons ici sans doute historiquement ce qu’a été l’avènement de la carte. La cartographie et la géographie, loin de ne reposer que sur l’épreuve de la connaissance, seulement objective, répondaient phénoménologiquement à la question de l’utilité. Phénoménologiquement : le face-à-quoi est toujours subordonné au pour-quoi, au en-vue-de-quoi. À l’instar de ce que dénonçait Adorno à propos de la société capitaliste dans Minima Moralia, ce qui est proposé, comme service au niveau des réseaux, est dialectiquement institué en vue de la mainmise et de la domination de l’homme. Les services proposés par le web, ne sont là que pour accélérer et parfaire selon le principe d’exhaustivité, la cartographie de nos choix, de nos perspectives, de nos existences.

Ainsi, loin de partager la suspension positive de Dominique Cardon, parlant de liberté de l’individu, il est évident que la digitalisation de nos existences, tend de plus en plus à nous fixer, avec l’assentiment de chaque individu concerné, à des formes de déterminismes, anticipables et dès lors calculables selon des logiques de profits.

Philippe Boisnard
publié dans MCD #73, « La numérisation du monde », janv.-avril 2014

Après des études de Philosophie à la Sorbonne (Master II) et de Lettres à Jussieu (Master II), Philippe Boisnard se consacre à l’écriture et à l’informatique. Artiste programmeur, il est chargé de cours en Master à Annecy et Directeur artistique de la FASTERI (Formation d’Angoulême de Supervision des Technologies du Relief et de l’Interactivité).

(1) Ce point précis pourrait permettre de bien comprendre le relatif échec de Second Life. Second Life s’est proposé de donner une réalité mimétique — au sens spatial et formel — de la nôtre. En effet, le participant se retrouve incarner un personnage dans un monde, répondant des mêmes processus, mais en virtuel, que ceux de notre existence. Second Life aurait parfaitement pu devenir le réseau social absolu à partir du milieu des années 2000. Or cela n’a pas été le cas, le désintérêt a été très rapide, notamment en France après les élections de 2007, où il fut très présent du fait de sa nouveauté. La raison de ce désintérêt vient du fait que ce qui domine au niveau d’Internet, n’est aucunement de l’ordre de la recherche d’une mimésis de l’espace, mais de l’incarnation de notre intentionnalité. L’internaute recherche davantage la forme esthétique des procédures intentionnelles, que la recopie du monde. Autrement dit, pour quelle raison des réseaux sociaux comme Facebook ont fonctionné et fonctionnent très bien, c’est que la conscience s’y reconnaît, Facebook est un condensateur intentionnel, qui a neutralisé toute forme de mimétique esthétique exogène à la conscience.

(2) Anne Cauquelin, Le site et le paysage, PUF, 2002.

(3) Il faudrait aussi mettre en évidence et analyser toutes les recherches sur le web-sémantique, et donc la question des tags associés à des contenus. Ces associations sont de l’ordre de schématisation de modalités de pensée. Dès lors la volonté de pouvoir maîtriser un web-sémantique appartient pleinement à la logique de saisie des procédures intentionnelles de l’homme.

(4) David Aurel, La cybernétique et l’humain, Gallimard, 1965.

(5) Il faudrait établir la discussion entre Jankélévitch et cette thèse de David Aurel à la lumière de l’évolution d’Internet et des opérations que j’ai décrites. En effet, Jankélévitch tend à poser dans le Je ne sais quoi et le presque rien, que la liberté, prise dans le déterminisme, n’a de sens que dans la transcendantalité du futur. Or, selon cette logique de réduction cybernétique des intentionnalités humaines et la maîtrise statistique de plus en pus forte des relations que la conscience établie, on pourrait penser que peu à peu, l’intentionnalité humaine quant aux possibles, puisse se réduire à un phénomène équalisable d’un point de vue déterministe. Ceci ressort de ce qu’écrit David Aurel : La technique rationnelle a attaqué le droit comme elle a attaqué la Médecine. Cela tient à l’augmentation du nombre des hommes, au fort taux de couplage de leurs relations actuelles (…). Le point le plus connu est celui de la cybernétisation de la gestion administrative. L’Automation, dont la réglementation préoccupe par ailleurs fortement le Droit, le pénètre lui-même dans son organisation technique (p.140).

(6) Heidegger, Le dépassement de la métaphysique : L’usure de toutes les matières, y compris la matière première « homme », au bénéfice de la production technique de la possibilité absolue de tout fabriquer, est secrètement déterminée par le vide total où l’étant, où les étoffes du réel, sont suspendues. Ce vide doit être entièrement rempli. Mais comme le vide de l’être, surtout quand il ne peut être senti comme tel, ne peut jamais être comblé par la plénitude de l’étant, il ne reste pour y échapper qu’à organiser sans cesse l’étant pour rendre possible, d’une façon permanente, la mise en ordre entendue comme la forme sous laquelle l’action sans but est mise en sécurité. Vue sous cet angle, la technique, qui sans le savoir est en rapport avec le vide de l’être, est ainsi l’organisation de la pénurie.

(7) Dominique Cardon, La démocratie Internet, Seuil, 2010.

quels enjeux pour l’éducation du citoyen ?

Qu’il s’agisse d’utiliser un GPS pour conduire son véhicule, de consulter un globe virtuel pour préparer ses prochaines vacances sur Internet ou encore de chercher de l’information selon sa mobilité avec un téléphone portable, nous pouvons constater que les outils numériques ont envahi notre vie quotidienne avec leurs lots de cartes, de plans et de traces numériques localisés. Explorant depuis une quinzaine d’années, comme enseignant puis comme formateur et chercheur, les nouveaux chemins de la cartographie numérique, nous proposons de présenter quelques-uns des enjeux majeurs de la révolution géonumérique que nous vivons actuellement.

Révolution géonumérique, de quoi parle-t-on ?
Comme le souligne H. Desbois nous sommes en train d’amorcer une transition géonumérique sans précédent qui tend à révolutionner la nature des cartes et leur place dans la vie quotidienne (1). En devenant numériques, les images cartographiques se sont démultipliées et transformées ; elles relèvent de plus en plus en plus de traitements complexes réalisés à partir de banques d’informations géonumériques. Sur son blog Monde géonumérique, Thierry Joliveau définit la géonumérisation comme le processus de transcription au moyen d’outils informatiques des objets, êtres, phénomènes, activités, images, textes localisés sur la surface terrestre (2). Les informations géolocalisées à notre disposition ont littéralement explosé avec la mise en place du « géoweb » défini comme la convergence des grands moteurs de recherche et des outils de cartographie numérique sur Internet.

On estime que 80% des informations existant dans le monde ont une base géographique, ce que l’entreprise Google a bien compris en proposant dès 2005 un outil de géolocalisation et de navigation cartographique, Google Earth. Depuis cette date, les évolutions techniques ont été nombreuses, qu’il s’agisse des outils de création et de partage de bases de données cartographiques pour des spécialistes ou des applications géolocalisées pour le grand public. En France, le Géoportail (3) s’est imposé comme le « portail d’information des territoires et des citoyens ». Ce site français de cartographie en ligne permet de consulter gratuitement les bases de données cartographiques de l’IGN (Institut Géographique National) ainsi que d’autres données produites par les collectivités locales, sur l’occupation du sol, les risques naturels et technologiques, le bâti, les cartes anciennes… Comme dans Google Maps ou dans Google Earth, on peut aussi y ajouter ses propres informations géolocalisées.

Pour le géographe comme pour le simple utilisateur, il est devenu possible de « géotagger » les images cartographiques issues de ces globes virtuels en ajoutant des commentaires sur ses paysages préférés aussi bien que sur des restaurants ou des lieux touristiques que l’on souhaite recommander à d’autres utilisateurs. Nos plans et nos cartes géographiques, longtemps réduites à deux dimensions, deviennent des espaces en trois dimensions où nous pouvons nous déplacer comme par exemple dans Google Maps avec son outil d’exploration visuelle en immersion, Street View. Avant même de découvrir l’espace réel, nous le parcourons, nous l’explorons et nous le disséquons sous différents angles. Nous utilisons ces « territoires virtuels » pour construire et mettre en forme nos représentations spatiales de sorte que l’on ne découvre que très rarement un espace réel pour la première fois. Ces bouleversements n’affectent pas seulement la façon de construire les cartes que nous pouvons désormais modifier, adapter, transformer par nous-mêmes. Ils touchent également à la manière de lire et de concevoir l’espace.

Avec le GPS et toutes les informations géolocalisées dont on dispose aujourd’hui, on est en train de construire un nouveau rapport à l’espace. En fait c’est l’utilisateur qui crée la carte. On sort de la carte pré-construite, de l’atlas ou du manuel. Sur l’ordinateur, l’utilisateur élabore ses propres cartes en choisissant le type de couches, le degré de zoom, l’angle de vue, la hauteur du relief, le rendu des formes et des couleurs. Il peut même superposer ses propres informations en important d’autres cartes ou d’autres images qu’il a lui-même saisies. Internet nous donne la possibilité d’explorer l’espace à l’aide de globes virtuels qui fonctionnent comme des sortes de doublons numériques de la Terre.

Prenons l’exemple de l’application Google Earth qui donne à voir la Terre vue d’en haut. Par des effets de zooms et de déplacements successifs, ce logiciel d’exploration géographique à partir d’images aériennes en haute résolution et en trois dimensions nous conduit à naviguer « dans » et non plus seulement « sur » la carte. On peut s’interroger sur le statut de ces images cartographiques qui donnent à voir la Terre quasiment « en direct » sans réelle possibilité d’interroger la source et l’origine de l’information géographique. On peut nourrir le même type d’inquiétudes face au risque de surveillance généralisée par les techniques de géolocalisation. Lire et construire des cartes et plus généralement manipuler de l’information géographique constituent de plus en plus un enjeu citoyen.

Cartographier : un enjeu citoyen
Avec l’essor rapide de la géomatique et des technologies de l’information géographique, on observe un regain de réflexion sur la carte et sur ses usages sociaux. La carte est aujourd’hui du côté des citoyens qui peuvent en discuter le point de vue. Qu’il s’agisse par exemple de consulter les riverains concernés par un projet autoroutier ou d’associer les habitants d’un quartier urbain à la gestion de leur environnement, la carte constitue un puissant outil de persuasion, mais aussi un espace de participation, de controverse, en tout cas de débat pour les citoyens. Ces derniers deviennent eux-mêmes des observateurs privilégiés d’une réalité locale et, de plus en plus, des créateurs d’informations.

Le pouvoir de création d’informations géographiques a basculé entre les mains d’individus qui ne sont pas des experts en cartographie. On peut mentionner par exemple des projets collaboratifs comme Wikimapia ou OpenStreetMap (4), qui sont des exemples de réalisations mises sur pied par des communautés d’utilisateurs. Dans certains pays, en particulier aux États-Unis, la mise en place de PPGIS (Public Participation Geographic Information System) témoigne du besoin de certaines communautés de citoyens de collecter l’information par le bas et de prendre part activement au débat public au travers de SIG participatifs. Ces projets de cartographie collaborative donnent aussi des idées aux artistes et aux aménageurs qui proposent des découvertes interactives d’espaces urbains, par exemple à partir de parcours sonores géolocalisés. Il s’agit de s’immerger dans des paysages sonores, de développer une approche sensible de la ville en reconstituant les traces du quotidien (5).

L’accès partagé à l’information géographique semble ouvrir la voie à une « géographie volontaire », où chaque citoyen est potentiellement capteur de données. D’aucuns y voient le triomphe d’une géographie centrée sur les représentations de l’individu du fait que chacun est désormais en mesure de produire et de modeler sa propre information géographique. D’autres au contraire insistent sur le partage et la mutualisation de ces informations sur des sites web collaboratifs. L’émergence d’un Internet participatif du type web 2.0 n’est pas sans susciter des débats autour d’une « néo-géographie ». Sans déboucher forcément sur la naissance d’une « nouvelle géographie », les outils du géographe commencent à se renouveler du fait de la création et du partage de l’information géographique sur le web. Qu’il s’agisse des Systèmes d’Information Géographique (SIG) ou des globes virtuels sur Internet, il semble que la cartographie numérique soit bel et bien devenue un enjeu civique.

Éduquer à la carte et à l’information sur support numérique
Les technologies de l’information géographique ont commencé à franchir le seuil de la classe (6). L’usage des outils de cartographie numérique commence à se banaliser et n’est plus seulement le fait d’enseignants innovants. L’objectif n’est pas tant de former des « citoyens-cartographes » que d’envisager tout le potentiel cognitif des technologies de l’information géographique : la carte doit être véritablement envisagée comme un outil d’investigation dans toute sa dimension heuristique. Le principal enjeu réside dans la visualisation et le traitement de l’information géographique numérique. Nous sommes en effet entrés dans un nouveau paradigme pour la cartographie, celui de la visualisation d’images numériques.

L’irruption massive de ces « cartes-images » n’est pas sans poser de nombreuses questions au géographe. Dans leur toute-puissance de saturation de l’information visuelle multiforme, les outils géomatiques sont susceptibles d’accroître le sentiment d’un accès direct à la « réalité » du monde. Cette emprise est symbolique bien sûr, car la réalité est au-delà de l’image. Mais l’imagerie numérique des SIG et des globes virtuels n’est pas seulement là pour nous offrir une image-réplique ou un doublon numérique de la planète, elle nous plonge dans une réalité « virtuelle » qui donne sens au réel. C’est dans cette virtualité de l’image que l’on peut visualiser les conséquences d’hypothèses, explorer des solutions, mettre en visibilité nos idées.

L’image cartographique n’est pas seulement un mode de représentation du réel, c’est aussi un mode de traitement permettant d’opérer à différents niveaux sur ce réel. En manipulant l’image, en croisant les couches d’information cartographiques, l’utilisateur a accès à différentes facettes d’un espace qui reste malgré tout insaisissable. Peu importe donc que l’usage des globes virtuels fonctionne avant tout sur des formes de pensée inductive, laissant de côté les possibilités de traitement de l’information offerts par les SIG. L’essentiel est que la carte puisse fonctionner comme un instrument de pensée. C’est globalement la question de la construction des savoirs géographiques par la carte, du passage de la représentation graphique aux représentations cognitives. Ce qui conduit à renouveler les pratiques autour de la carte considérée comme instrument de cognition spatiale. Cela nécessite une éducation à la carte, qui passe aujourd’hui nécessairement par une éducation à l’image et à l’information numériques. C’est pourquoi il semble indispensable de relier les compétences cartographiques à l’acquisition de compétences numériques telles que la maîtrise de l’information sur Internet ou le traitement de l’image à travers des outils de cartographie numérique.

La question est de savoir si on souhaite vraiment aller vers une éducation aux usages géonumériques. Actuellement les disciplines sont piégées par le poids de la tradition scolaire. Le téléphone mobile, par exemple, reste strictement interdit au sein des établissements scolaires. Ce qui se comprend notamment pour des raisons de dérives dans l’usage des réseaux sociaux. Face à l’inertie des programmes scolaires, on commence tout juste à introduire les outils géomatiques à l’école. Alors que les élèves utilisent déjà dans leur quotidien ces nouvelles technologies, l’école reste en décalage par rapport à la société.

Aux États-Unis, en revanche, les enseignants se servent de jeux de géolocalisation dans leur pédagogie, comme le geocaching. Cette chasse au trésor numérique en équipes permet d’appréhender l’espace via un parcours ludique et se fait sur le terrain grâce à un GPS et à un téléphone portable avec des outils de cartographie embarquée. Ces jeux géolocalisés commencent à arriver en France avec de nouvelles applications. La géographie scolaire évolue. Avec les QR codes, ces flash codes que l’on scanne dans la ville, d’autres pistes d’utilisation se dessinent du type réalité mixte. Les villes ou les musées s’en servent de plus en plus pour envoyer des informations le long d’un parcours citadin ou dans la découverte d’une exposition. Et les implications éducatives et culturelles sont énormes. Nous ne sommes qu’au début de cette révolution géonumérique…

Les outils géomatiques constituent de nouveaux outils pertinents d’intelligibilité du monde et se prêtent à différentes formes d’apprentissage. Il est nécessaire d’éduquer les élèves aux médias, au droit à l’image, qu’ils acquièrent un regard critique sur ces informations accessibles par tous, aux réseaux sociaux de communication. Il faut également avoir du recul face à la carte. Il est possible par exemple de géolocaliser ses « amis », parfois à leur insu. La question du comment l’école se positionne face aux dérives potentielles est cruciale. Il est important de réfléchir à l’éducation aux usages géonumériques si l’on veut former le citoyen au monde numérique dans lequel nous sommes entrés de plain-pied.

Sylvain Genevois
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Sylvain Genevois est docteur en géographie et en sciences de l’éducation et enseignant-chercheur à l’université de Cergy-Pontoise. Ses recherches portent notamment sur le changement des pratiques cartographiques et le renouvellement de l’enseignement de la géographie, en lien avec les usages sociaux des outils de cartographie numérique (SIG, globes virtuels, outils de localisation de type GPS et jeux géolocalisés). Membre du Comité français de cartographie (commission enseignement) et co-fondateur de l’Observatoire de pratiques géomatiques de l’Institut français de l’Education, il a publié de nombreux articles sur l’usage des outils de cartographie numérique en contexte scolaire.

(1) Henri Desbois, « La transition géonumérique », http://barthes.ens.fr/articles/Desbois-colloque-ENSSIB-Goody-2008.pdf

(2) Blog Monde Géonumérique, http://mondegeonumerique.wordpress.com/

(3) Géoportail : www.geoportail.gouv.fr

(4) Dans Wikimapia, l’utilisateur peut construire ses cartes personnalisées à partir de différentes applications (Google Maps, Bing Maps, Yahoo, etc.) : http://wikimapia.org OpenStreetMap, base de données cartographiques libre du monde : www.openstreetmap.org/

(5) « Cartes sonore et dérivés. Représentations de la chose sonore ». http://desartsonnants.over-blog.com/cartes-sonores-et-d%C3%89riv%C3%89s-repr%C3%89sentations-de-la-chose-sonore

(6) Genevois S. (2008). Quand la géomatique rentre en classe. Usages cartographiques et nouvelle éducation géographique dans l’enseignement secondaire. Thèse de doctorat http://tel.archives-ouvertes.fr/tel-00349413/fr/

 

Le 8 décembre 2013, Mehdi Belhaj Kacem (2), lors de la séance introductive de son séminaire sur le nihilisme, formulait, sur le ton de la boutade il est vrai, son impatience à ce que la science arrive enfin à ressusciter Platon, Descartes et Spinoza, sur la base de quelques reliques d’ADN que ces illustres personnages auraient laissé ici ou là.

Que cela puisse faire l’objet d’une boutade implique que, déjà bien ancrée dans notre imaginaire collectif, existe l’idée selon laquelle un être vivant peut être entièrement codé, numérisé, par son ADN. C’est en fait un lieu commun de nombreux produits culturels, films, romans à succès ou jeux vidéo, alors même que, dans la communauté scientifique, rares sont ceux qui soutiennent que le phénomène de la vie puisse se réduire à quelques dizaines de milliers d’instructions (gènes) contenues dans notre patrimoine génétique.

Wanted : advanturous women to give birth to Neanderthal man (3)
Mais il est vrai que cette même communauté scientifique, pour toute sorte de raisons plus ou moins avouables, aime entretenir l’ambiguïté. Ainsi, en 2012, George Church, l’un des acteurs de premier plan de la biologie synthétique (professeur à Harvard aux allures de sympathique père Noël, il n’oublie pas de faire fructifier son expertise dans plusieurs start-ups médicales), expliquait, dans une interview au magazine Der Speigel (4) reprise ensuite de manière virale sur le net, qu’il ne lui manquait essentiellement plus qu’une mère porteuse pour donner naissance au premier bébé néandertalien depuis 30.000 ans (toujours sur la base de reliquats d’ADN). George Church n’est a priori pas un spécialiste, ni de la reproduction ni du clonage animal, et les experts sont unanimes, une telle opération est, pour de multiples raisons, tout à fait hors de portée des techniques actuelles ou même simplement actuellement envisageable. Il s’agit probablement pour Mr Church de créer le buzz et de mettre en valeur les bien réelles compétences de ses équipes dans les techniques d’édition de l’ADN. Dans une communauté scientifique toujours plus soumise à la pression de la compétition, de la publication et des brevets, et dont la recherche principale est celle des financements, les chefs de labos sont devenus experts en storytelling, et ce genre d’écart de langage est devenu commun et accepté. Les scientifiques savent lire entre les lignes, mais l’impact sur le grand public est incontrôlable. S’alimente ainsi le fantasme d’une numérisation du vivant, croyance populaire dont on peut par ailleurs se demander si elle ne sert pas des intérêts mercantiles dans les sphères de la médecine (où l’on doit convaincre du bien-fondé des nouveaux tests et médicaments commercialisés) ou de l’agro-industrie (où l’on doit faire passer l’idée que l’on a une bonne maîtrise des techniques OGM).

En décembre 2013, à l’heure où ces lignes s’écrivent, la société 23andMe fait les gros titres des journaux suite à ses démêlés avec la FDA, l’agence de sécurité sanitaire américaine. Cette affaire est emblématique du statut de la biologie à l’heure de l’économie numérique. 23andMe commercialise auprès des particuliers, via Internet et à des prix très accessibles, des offres de séquençage du génome, et proposait l’accès en ligne à divers services de génomique personnelle (5). Concrètement, contre l’envoi d’un peu de salive et de 99 USD, on obtenait quelques indications sur d’éventuelles prédispositions à certaines maladies, celles que l’on peut relier statistiquement à l’état de tel ou tel gène. C’est la difficulté de l’interprétation de ces statistiques, due au fait que les prédispositions sont la plupart du temps très ténues, voire non significatives, qui motive l’avis de la FDA : il y aurait danger à (sur)interpréter ces données sans l’avis d’un spécialiste. Danger, par exemple, de prendre des mesures préventives inadaptées (telle une double mastectomie). En réalité, 23andMe, suivant en cela les comportements au-dessus de lois de certaines majors du numérique auxquelles elle est d’ailleurs historiquement reliée, a, au fil des années, sciemment négligé les rappels à l’ordre de la FDA, et l’on peut soupçonner que le but ultime d’une telle compagnie n’est pas de vendre un service au particulier, mais bien de constituer, sur le modèle de Facebook, Google ou Apple avec les données personnelles de leurs clients, une formidable base de données génétique, qu’il sera bien temps de valoriser plus tard.

Le paradigme numérique en biologie et l’ingénierie du vivant.
Les inquiétudes de la FDA à propos de 23andMe sont à placer dans le contexte plus général de la montée en puissance d’une forme de réductionnisme génétique en médecine et en biologie. Depuis la découverte, en 1953, par Francis Crick, Rosalind Franklin et James Watson de la structure en double hélice de l’ADN, la biologie s’est peu à peu recentrée autour de ce que Crick lui-même a nommé le « dogme central de la biologie moléculaire » (6). Il s’agit d’un modèle qui décrit comment, en première approximation, l’information génétique contenue dans l’ADN est transmise, reproduite, interprétée en protéines, etc. Ce modèle simplifié, bottom-up, où l’on cherche à expliquer la construction et le fonctionnement d’un organisme macroscopique en fonction d’instructions élémentaires microscopiques, assemblées linéairement comme dans un programme caché au plus profond des cellules, conduit naturellement à développer une analogie avec l’informatique. Le vocabulaire en vogue dans certaines branches de la génétique en fait foi : on parle non seulement de programme génétique, mais parfois même de machine de Turing et de système d’exploitation (pour parler du contrôle de l’expression des gènes au sein de la cellule).

Une locution, biologie synthétique, a fait fortune hors des labos. Utilisée, semble-t-il, pour la première fois en 1912 par Stéphane Leduc, sa gloire actuelle est à mettre au crédit de Craig Venter, l’entrepreneur pionnier du séquençage du génome humain qui est aussi à l’origine de la création ex nihilo d’ADN « viables », entièrement synthétiques. C’est une remarquable prouesse technologique, mais qui reste marginale et surtout limitée à certains cas très simples. Dans les milieux de la recherche, on parle plutôt de « biologie de synthèse ». Les objectifs sont plus modestes et mieux circonscrits (voir par exemple l’article prospectif de François Kepes) (7), et le terme recouvre l’ensemble des techniques permettant de concevoir et d’éditer des génomes aussi rationnellement que possible, dans le but de transformer des cellules en petites usines chimiques (production d’insuline, de biocarburant…). On est très éloigné des promesses mirobolantes que l’on sert au grand public (voir par exemple cette conférence TED où un chercheur du Génopôle d’Évry explique que des arbres seront reprogrammés pour croître en forme de maison, et qu’à terme, en 2030, on pourra planter son habitation) (8).

Le séquençage proprement dit produit une liste de données brutes organisées linéairement, que l’on doit ensuite analyser avec toute la puissance de l’outil mathématique, statistique et informatique. De ce point de vue la contribution du monde numérique à l’essor de la biologie moderne est fondamentale. L’automatisation, voire la robotisation des procédés est aussi un point clé des analyses génétiques à grande échelle, et à ce titre on peut considérer que les progrès de la biologie moderne sont à créditer plus à cette mécanisation des techniques qu’à une révolution conceptuelle qui n’a pas vraiment eu lieu depuis l’époque du « dogme ». Ce modèle et ces techniques « numériques » ont leurs limites, il est clair qu’on ne peut raconter un être humain en quelques dizaines de milliers d’instructions. Le cas des bactéries, organismes unicellulaires et sans noyau, est déjà remarquablement complexe et en grande partie encore mystérieux. Au-delà de cette structure linéaire, il n’est pas aisé de comprendre la structure spatiale des molécules biologiques, ADN, protéines, manifestement très importante, ainsi que les réseaux de régulation de l’expression des gènes. Le même ADN est présent dans un neurone ou une cellule du derme, mais il s’exprime bien évidemment de manière radicalement différente dans les deux cas. Et ne parlons pas des parties qui ont résisté au séquençage (9), ou de « l’ADN poubelle » (junk DNA), les parties non directement codantes, qui forment en réalité la plus grande partie de notre génome (98% chez l’homme), et dont la fonction, loin d’être élucidée, mais probablement bien réelle, est ignorée par le « dogme ». Remarquons enfin que 23andMe, dans son offre standard, ne séquence en fait que 0,3 % des génomes de ses clients, et ce avec un taux d’erreur non négligeable (10).

Une infinité de nuances de gris
Quoi qu’il en soit, rares sont les situations où un gène correspond à un caractère précis, de sorte qu’une mutation corresponde précisément à une maladie. On est en fait en présence d’un exemple typique de système complexe, où des ensembles de gènes interagissent mutuellement et avec l’environnement, via de nombreuses boucles de rétroaction. La biologie à ceci de particulier qu’elle ne connaît guère les 0 et les 1, le blanc ou le noir, mais plutôt les nuances de gris, les probabilités, les tendances, les écarts statistiques. De ce point de vue, les inquiétudes de la FDA au sujet de 23andMe sont, comme on l’a vu, en partie justifiées, car des données de ce type sont réellement délicates à interpréter, et l’on peut craindre une automédication naïve et dangereuse. À côté de cela, il est facile de saisir le potentiel commercial que représente l’exploitation de la crédulité populaire relativement à ces données génétiques.

En réalité, tout de passe comme si la nature considérait ce système complexe, où l’on peut difficilement isoler la cellule du continuum de son environnement externe ou interne, à l’inverse de la vision « bottom-up » du dogme. S’il est une branche de la biologie qui a conduit à des bouleversements conceptuels profonds dans notre vision du vivant, c’est bien les sciences de l’évolution, c’est-à-dire la compréhension des effets subtils de la sélection naturelle, selon un point de vue qui repose sur l’observation statistique de grandes populations d’organismes vivants, et ce sur de nombreuses générations. Bien entendu, le génome joue un rôle fondamental et central dans la compréhension de l’évolution, mais l’information génétique n’y a pas de sens lorsqu’elle est isolée. Elle doit toujours être replacée dans son contexte évolutif, temporel et dynamique. Une bonne partie des critiques sérieuses visant l’usage des technologies OGM dans l’agro-industrie pointent l’ignorance de ce fait et de ses conséquences (11).

Biomimétisme
Les solutions « trouvées » par la nature ne doivent rien à un ingénieur qui en aurait développé les éléments, tels ceux d’une voiture, pièce par pièce, par l’édition locale de l’ADN via des opérations de type copier-coller. Ces « solutions naturelles » sont d’ailleurs souvent bien plus efficaces, économes et optimales que nos réalisations technologiques, et elles restent en grande partie mal comprises. Que l’on compare, en termes de degrés de liberté, de souplesse et d’efficacité énergétique, un bras humain, muni de ces moteurs extraordinaires que sont les muscles, et un bras robotisé, articulé autour de moteurs électriques. Que l’on compare la photosynthèse et nos technologies solaires à base de silicium. La vogue actuelle du biomimétisme, qui consiste à s’inspirer de ces « solutions naturelles » pour faire avancer nos technologies, quoi que très prometteuse, en reste bien souvent à l’idée de copier la nature via la traditionnelle approche bottom up de l’ingénierie, sans en assimiler les méthodes.

Numérisation et dévitalisation de l’ADN.
La molécule d’ADN possède des propriétés physico-chimiques remarquables, qui font que, en assemblant des paires de base le long de cette double hélice, on peut y coder formellement, indépendamment de tout sens biologique, à peu près n’importe quelle information, et ce en grande quantité. Si elle est conservée dans de bonnes conditions, cette molécule est stable et pérenne, et on peut imaginer de véritables disques durs à ADN (12), si toutefois l’on surmonte la lenteur des procédés d’écritures et de lecture. Mais en aucun cas il ne s’agira de disques durs vivants ! Bien au contraire, cette même molécule d’ADN, replacée dans son contexte vivant se trouvera constamment altérée et transformée, et l’information non reliée à la vie de la cellule sera remixée, rapidement diluée et finalement en grande partie détruite. Par exemple, les parties du génome de l’artiste Eduardo Kac, que celui-ci a fait intégrer dans une lignée de pétunias (Edunia), sont insignifiantes du point de vue la théorie de l’évolution. On peut espérer les préserver uniquement parce que cette plante est soigneusement cultivée. Il en va de même des caractères ornementaux de la plante. Son côté « non naturel », revendiqué par Kac, n’a donc pas grand-chose à voir avec la manipulation génétique effectuée. Une autre œuvre d’Eduardo Kac, Genesis, met d’ailleurs remarquablement en valeur ces phénomènes d’évolution du génome : une phrase de la bible est codée dans l’ADN d’une population de bactéries. Soumise à des ultraviolets accélérant le taux de mutation, la phrase transformée et méconnaissable est redécodée à la fin de la performance (13).

L’une des formes extrêmes de la biologie synthétique, l’approche par biobricks, popularisée par Drew Endy du MIT, et le concours iGEM, mais qui est contestée au sein même de la communauté (14), touche un public d’amateurs avertis (pour la plupart étudiants) et le mouvement bio-DIY des biohackers. On pourrait dire que la biologie synthétique est à la biologie ce que la norme MIDI est à la musique, et, de ce point de vue, la contribution des biohackers relèverait de la musique 8 bit et des chiptunes, jusque dans son côté bricolé et open source. C’est à dire quelque chose d’intéressant et de créatif — le concours iGEM a donné lieu, entre autres choses, à des procédés de détection de polluants —, mais tout de même de limité dans son ensemble. Malgré ce côté libre et collaboratif, iGEM se présente ouvertement comme une entreprise pédagogique volontariste destinée à renforcer l’acceptabilité par le public des techniques transgéniques (15).

The inner life of the cell (16)
Ce petit film en images de synthèse a connu un petit succès sur le net. Issu de la prestigieuse université de Harvard, il décrit le fonctionnement de la cellule, dépeinte sur le mode d’une usine où s’activent divers agents, des moteurs moléculaires, des protéines-robots évoluant le long des microtubules, dont la représentation semble librement inspirée de l’imaginaire visuel de la science-fiction. Il s’agit certainement d’un schéma simplificateur fécond pour penser la complexité de la cellule, mais cette présentation mécaniste ne laisse plus beaucoup de place à l’aléatoire et aux équilibres incertains qui font la spécificité du biologique. Après le canard de Vaucanson, l’explication physico-chimique de la vie à la Stéphane Leduc, les dérives scientistes et eugénistes du XXème siècle et la vague cybernétique des années 50, c’est donc un nouvel avatar de la vision mécaniste de la vie qui est à l’œuvre aujourd’hui comme schéma dominant de pensée de la biologie moderne. À tout le moins est-ce cela que l’on sert au grand public via les média, les conférences TED, voire même dans les musées où l’on assiste à un développement exponentiel des initiatives art-science.

Art washing
En effet, les grandes conférences scientifiques internationales de biologie de synthèse sont maintenant dotées de sections « bio-art » (17), et les grandes institutions de la technoscience, publiques ou privées, ne se privent pas de financer des prix artistiques, des résidences d’artistes ou des expositions. On peut les soupçonner de vouloir en profiter pour redorer leur blason parfois quelque peu terni. Quel meilleur vecteur que le financement des artistes, pour asseoir l’acceptabilité d’une technique auprès du grand public ? L’artiste va parfois revendiquer un discours critique, mais si celui-ci s’inscrit en toute bonne foi au sein du dogme et prend pour acquis l’approche réductionniste, afin éventuellement d’en interroger les réalisations et les perspectives, le tour est joué. Pour pas cher, on peut diffuser un schéma de pensée auprès d’un public cultivé et prescripteur (18).

La biologie est-elle un art numérique ?
Les institutions du monde de l’art, musées ou festivals, spécialisées dans l’art numérique et des nouveaux médias ont pour la plupart étendu leur compétence au domaine du « bio-art ». Mais il ne s’agit pas d’une ouverture aux artistes qui, tel Michel Blazy, sont en prise directe avec le vivant. Ce qui frappe en premier lieu lors de la visite de l’exposition En Vie / Alive (19) qui s’est tenue à Paris l’été dernier à la fondation EDF, c’est l’omniprésence d’écrans, de machines, de schémas et de wishfull thinking, qui contraste avec le confinement dans lequel étaient tenues les rares formes de vie présentées, tel ce cactus chevelu de Laura Cinti (20), provocation très subtile, mais pas clairement assumée : les poils qui remplacent les épines, contrairement à ce que le public est invité à s’imaginer, ne sont en rien le résultat de l’introduction d’un gène de kératine. Impossible aussi de ne pas remarquer le discours de remédiation environnementaliste, qui relève de choix curatoriaux, et qui donne à voir des œuvres transgéniques, pour la plupart virtuelles, comme des manières de palier les effets du réchauffement climatique et de l’extinction massive et rapide des espèces. On rejoint ainsi le fantasme de « dé-extinction », (recréer de la biodiversité par génie génétique), dont le bébé néandertalien de George Church est un symptôme. Le message implicite n’est-il pas que finalement on peut continuer à polluer, les ressources infinies d’une géo-ingénierie version bio nous permettrons de trouver des solutions élégantes ?

The Human Brain Project
À moins que la solution la plus élégante ne soit tout simplement d’abandonner notre enveloppe corporelle et de se fondre dans le réseau ? L’analogue contemporain du Human Genome Project des années 90 (séquençage du génome humain), le Human Brain Project, ne manque pas d’alimenter ce genre de fantasmes. Basée en Suisse, cette initiative internationale déjà financée à hauteur de 1 milliard d’euros s’est fixée pour but de réaliser rien de moins que la modélisation complète, à l’aide de supercalculateurs, du cerveau humain. L’histoire dira si cet espoir est raisonnable, ou si ces effets d’annonce, inévitablement accompagnés de perspectives thérapeutiques grandioses (Alzheimer et Parkinson ne sont jamais loin), ne sont là que pour faire rêver les décideurs et les financeurs. Il est fort possible, que, comme pour le Human Genome Project, ces espoirs soient déçus, mais qu’il en résulte de nombreuses découvertes importantes, inattendues et orthogonales aux idées initiales (chaque scientifique sait bien cela lorsqu’il dépose une demande de financement). Mais le message qui persiste auprès du grand public reste conforme au paradigme réductionniste et alimente les délires transhumanistes à la Ray Kurzweil (21) : l’homme est une machine, qu’avec un peu d’efforts nous pourrons réparer, dupliquer, voire améliorer, synthétiser, et finalement uploader dans un nuage.

Le Human Brain Project s’intègre naturellement dans l’évolution récente des neurosciences, marquée par les progrès des technologies d’imagerie médicale, qui permettent chaque jour de voir un peu plus loin dans le cerveau. Mais là aussi, la sur-interprétation guette, et l’idéologie pointe souvent le bout de son nez. Les recherches, encore onéreuses et effectuées sur de faibles cohortes de patients, sont souvent entachées de biais statistiques et de présupposés idéologiques (expliquer la violence par des schémas neuronaux), voire de fraudes (22). L’une des marques de ces idéologies en vogue est de vouloir tout ramener à des quantités mesurables, à des indices, à des classements (QI, violence, bonheur…), et, de ce point de vue, on assiste bien à une numérisation, un échantillonnage, une discrétisation de l’humain, qui laisse passer entre ses mailles toute sorte d’aspects qualitatifs du vivant.

Dans l’univers discret, fini et élémentaire du célèbre jeu de la vie de John H. Conway (23), on peut voir apparaître des comportements arbitrairement complexes (en réalité, tous les phénomènes calculables). Le Human Brain Project, interprété au sens fort (celui que l’on vend au grand public), revient à faire l’acte de foi que la conscience humaine est une propriété émergente d’un tel système, certes complexe, mais fini. On peut à l’inverse faire l’acte de foi que l’image numérique du vivant (données génétiques, flux d’informations dans un graphe neuronal, mesures biologiques…) n’est qu’une projection, certes importante et concrètement utilisable, permettant par exemple d’identifier un criminel avec une certaine probabilité ou de ficher les citoyens, mais offrant une image radicalement réduite du phénomène biologique.

Par exemple, décrire un être vivant par un ensemble des données numériques implique que l’on puisse le circonscrire assez précisément dans le temps et dans l’espace. Rien n’est moins clair dans le monde biologique. Qu’est-ce qu’un gène ? Les définitions varient selon les contextes. Qu’est-ce qu’un virus ? Est-il une forme vivante ? La prise de conscience récente de l’omniprésence des virus et de leur rôle fondamental fait bouger des lignes que l’on croyait bien établies, en particulier via la découverte de virus géants (24). Qu’est-ce qu’une plante ? Peut-on la considérer indépendamment des micro-organismes du sol dans lequel elle croît ? Peut-on isoler l’homme de l’écosystème complexe qui peuple ses muqueuses ? La réponse est tellement clairement négative que, comme dans une sorte de fuite en avant, on explore maintenant l’ensemble des génomes de notre flore intestinale, un métagénome que l’on estime 150 fois plus grand que le nôtre.

Il ne s’agit pas ici de fournir des arguments en faveur d’un obscur vitalisme qui rendrait le biologique inaccessible à la technique, ni même d’une critique du réductionnisme en général, dont on peut considérer qu’une certaine dose est consubstantielle à la démarche scientifique, et encore moins de nier les progrès fulgurants des technologies du vivant. Il s’agit uniquement de montrer les limites d’un réductionnisme véritablement réducteur, qui fait fi de la nécessaire modestie de la science, dans un contexte où chaque nouvelle découverte fait en réalité apparaître une complexité supplémentaire et inattendue. Il s’agit aussi d’identifier les dérives idéologiques et les manipulations qui se cachent derrière la sur-interprétation démesurée des bien réelles convergences entre numérique et biologique dont nous sommes les témoins.

Dans une société où notre rapport à la nature est de plus en plus distant, où le commun des mortels n’a plus de contact direct avec les animaux ou avec les cycles de la nature via les travaux de champs, dans une société aseptisée, exempte des odeurs de la pourriture et de la mort et où l’on cache dans des nuggets de poulet (25) les bas morceaux des animaux que notre industrie produit en masse, la numérisation du vivant telle qu’elle s’engage revient à élargir plus encore ce fossé béant, à renforcer l’idée présomptueuse d’un contrôle que l’on aurait sur la vie et la nature, voire à valider des choix favorables à quelques grands groupes dont les intérêts n’existent qu’à court terme. Mais la vie, qui n’a pas attendu l’homme pour établir ses réseaux hautement connectés (26), se moque bien de nos prétentions.

Emmanuel Ferrand
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Emmanuel Ferrand est Maître de conférences à l’Institut Mathématique de Jussieu / Projet Analyse Algébrique.

(1) Ce titre est un clin d’œil à l’article de Johan Söderberg, « Illusoire émancipation par la technologie », Le Monde Diplomatique, Janvier 2013. www.monde-diplomatique.fr/2013/01/SODERBERG/48629

(2) Mehdi Belhaj Kacem, séminaire à La Générale, le 8 décembre 2013. http://youtu.be/_g04bug65ZE

(3) Le Daily Mail, 20 janvier 2013 a reproduit les informations du Spiegel (ci-dessous) en prêtant à George Church cet appel à une mère porteuse qu’il n’avait pas lancé. C’est cet article qui s’est répandu de manière virale sur le net. www.dailymail.co.uk/news/article-2265402/Adventurous-human-woman-wanted-birth-Neanderthal-man-Harvard-professor.html

(4) Spiegel Online International, 18 janvier 2013. Interview with George Church : Can Neanderthal be brought back from the dead ? www.spiegel.de/international/zeitgeist/george-church-explains-how-dna-will-be-construction-material-of-the-future-a-877634.html

(5) Un exposé très clair de l’affaire 23andMe par Rémi Soussan, blog de Lemonde.fr, 20 décembre 2013. http://internetactu.blog.lemonde.fr/2013/12/20/la-genomique-personnelle-dans-la-tourmente/

(6) Le mot « dogme » est improprement employé ici pour une théorie.

(7) François Kepes, « La biologie de synthèse : développements, potentialités et défis ». Réalités industrielles, février 2010. http://www.annales.org/ri/2010/ri-fevrier-2010/Kepes.pdf

(8) Franck Deleplace, Programmer les organismes vivants, TEDxParisSalon, 17 octobre 2012, Gaité Lyrique, Paris. http://youtu.be/S0OFfuUOX5U

(9) L’hétérochromatine reste une composante mal séquencée des génomes : « Mysteries of heterochromatic sequences unravelled », Nature Reviews Genetics 8, 567 (août 2007).

(10) 23andMe sequences are all wrong, Lior Pachter,30 novembre 2013, http://liorpachter.wordpress.com/2013/11/30/23andme-genotypes-are-all-wrong/

(11) Voir par exemple l’apparition de résistances aux toxines de maïs transgéniques : www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0069675

(12) Comme l’a démontré George Church en 2012.

(13) Ingeborg Reichle, dans Art in the age of technoscience, p. 129, fait remarquer que le travail de Eduardo Kac peut être considéré comme un discours sur le flux de nouvelles sensationnelles qui nous viennent des sciences du vivant, plus qu’une réflexion sur le vivant proprement dit.

(14) Selon la base de données PubMed, la notion de biobrick est anecdotique dans la littérature scientifique (quelques dizaines d’articles). La Biobricks Foundation définit son but de manière messianique : we envision synthetic biology as a force for good in the world. http://biobricks.org/about-foundation/

(15) iGEM ne considère la biologie synthétique que based on standard parts. http://igem.org

(16) The inner life of the cell, Biovisions, Harvard University. http://multimedia.mcb.harvard.edu/anim_innerlife.html

(17) International symposium on synthetic biology, Heidelberg, décembre 2013. www.synbio-symposium.de/sb2013/index.php/schedule

(18) Cela ne présume en rien de la qualité intrinsèque des œuvres. Que l’on pense à la postérité artistique de la cybernétique, idéologie prégnante dans les années 50.

(19) Exposition En Vie / Alive, Fondation EDF, Paris, 2013 http://thisisalive.com

(20) http://c-lab.co.uk/project-details/the-cactus-project.html

(21) How to create a mind : the secret of the human thought revealed, Ray Kurzweil, 2012.

(22) « Neurosciences, les limites de la méthode », Thomas Boraud, François Gonon, Le Monde, 30 septembre 2013. www.lemonde.fr/sciences/article/2013/09/30/neurosciences-les-limites-de-la-methode_3487335_1650684.html

(23) Le jeu de la vie est un automate cellulaire, proposé par J.H. Conway en 1970, qui se programme en quelques lignes, mais qui montre des comportements arbitrairement complexes. Il peut simuler n’importe quelle machine de Turing.

(24) Defining life : the virus viewpoint, Patrick Forterre, Orig Life Evol Biosph. avril 2010. www.ncbi.nlm.nih.gov/pmc/articles/PMC2837877/

(25) The autopsy of chicken nuggets reads « chicken little« , Richard D. deShazo, et al, American Journal of Medecine, novembre 2013.

(26) Architecture of the Wood-Wide Web : Rhizopogon spp. genets link multiple Douglas-fir cohorts, New Phytologist, 2009. http://nature.berkeley.edu/brunslab/mycorrhizal/papers/beiler2009.pdf

streaming et marquage de l’écoute à l’ère numérique

L’écoute est un processus disposé à s’épanouir dans une intimité. L’écoute parle à celui dont elle est l’écoute. Fonctionnellement, l’écoute s’articule à une machinerie poly-sensorielle dont le rôle est de renseigner l’individu sur le monde qui l’entoure. Sens parmi les sens, l’écoute s’adresse à soi, mais plus spécifiquement à la partie de soi dans le monde. À ce titre, l’écoute est un dispositif primordial de la communication entre soi et son environnement, mais également entre soi et les autres : sans écoute, pas de parole. Entendre devient donc également un enjeu communautaire, en tant qu’elle est au centre du fonctionnement de la langue orale. L’écoute, ainsi, est tendue vers l’autre et l’extérieur. Elle invite l’en-dehors à se manifester. Elle le fait parler.

Longtemps, tous les objets de l’écoute étaient en rapport de coexistence avec l’auditeur ou, pour le dire autrement, l’individu à l’écoute ne pouvait entendre que ce qui se déroulait dans un champ spatial et temporel qui lui était contingent, champ qui se dimensionnait d’ailleurs à la mesure de ces capacités auditives. On vivait inéluctablement dans le même espace-temps que ce qui avait produit le son que l’on entendait. L’avènement de la reproductibilité de l’audible a brisé cette contingence certaine. Ce qu’on entend désormais a pu être prononcé ou exécuté il y a plus d’un siècle, dans des lieux situés à des milliers de kilomètres de nous, et dans lesquels, pour un bon nombre d’entre eux, on ne se rendra probablement jamais.

Le son, une fois domestiqué, c’est-à-dire médiatisé, a été dupliqué en autant d’empreintes que la technologie le permettait (grâce à la phonographie) et a pu être transmis à grande distance de manière quasi-instantanée (grâce à la radiophonie). Il nous est sans doute impossible, aujourd’hui, d’appréhender avec justesse le caractère frappant des premières expériences d’écoute de voix d’êtres distants ou disparus. On pourrait s’interroger, d’ailleurs, sur l’identité du premier individu à avoir été réentendu après sa mort. On pourrait chercher à savoir qui était ce premier être à avoir laisser derrière lui sa voix mais surtout qui, parmi ses survivants, a fait cette expérience primordiale d’entendre à nouveau les paroles de quelqu’un qui ne parle plus. De nos jours, cette écoute des sons fantômes est devenue une expérience banale : le corps sonore s’est dissipé au profit de ses enregistrements.

Mais à l’ère de cette écoute médiate, schizophonique, s’est déjà superposée celle d’une écoute sans objet. Le support physique, désormais, est également en voie de disparition et subit déjà une raréfaction considérable. Seule l’interface perdure. L’écoute, désormais, prélève des flux. La dématérialisation des sons s’est donc affranchie de ce qui a été, sous de multiples avatars, l’emblème de la production en masse de l’audible : l’empreinte. Pour autant, l’empreinte existe encore, bien que dissimulée dans des espaces de stockages toujours plus inaccessibles, toujours plus nuageux. Elle perdure, stockée en états électriques ou en potentiels magnétiques, circulant dans le réseau puis se transcodant dans la mémoire vive des machines qui nous les donnent à entendre. Aussi, ce qui se dématérialise est moins le son lui-même, que l’objet le manifestant.

La musique a été, durant toute l’histoire de l’écoute médiate, invariablement liée aux supports sur laquelle elle était inscrite (fil de fer, disque souple, bande magnétique, disque optique, etc.). Aujourd’hui, son accès ne se cristallise plus autour d’objets que l’on possède, mais autour de lieux où l’on accède, fussent-ils des lieux virtuels. Le protocole préliminaire à une écoute médiate n’est donc plus tant de coupler un dispositif intermédiaire à un support que d’accéder à un canal de diffusion. À ce titre, l’écoute en ligne ne se distingue pas encore d’une écoute radiophonique, où l’on dérive sur les bandes de fréquences jusqu’à trouver une station délivrant un flux satisfaisant. Mais, plus qu’une simple déclinaison du protocole radiophonique adapté à Internet, le streaming audio apporte à l’écoute médiate des conditions nouvelles, susceptibles de la modifier en profondeur.

L’une de ces nouvelles conditions, déterminante dans le façonnage de l’écoute, est que, si l’accès au flux radio est évanescent, en ce sens où le son disparaît dans l’instant même de son apparition, le son en streaming, lui, est accessible de manière pseudo-permanente (c’est-à-dire, à tout moment, dès lors qu’il est encore mémorisé sur un serveur accessible). La radio a créé cette situation étrange : l’émission de flux continus à l’adresse de récepteurs-auditeurs « muets », n’ayant comme possibilité active, vis-à-vis de ce flux, qu’une simple alternative : écouter ou ne pas écouter. L’accès en streaming redessine cette relation, donnant souvent aux auditeurs, en plus d’une maîtrise temporelle, la possibilité de s’exprimer sur l’objet de leur écoute. Aussi, la lecture en ligne de flux audio autorise, suggère ou encore implique le commentaire, allant parfois jusqu’à l’inscrire à même la forme d’onde représentant le son. Il ne s’agit alors moins d’écouter que de dire son écoute, dans le temps même de son écoute.

Ces commentaires, en effet, ne sont presque jamais des avis argumentés. Ils ne sont pas, non plus, l’occasion de briller socialement, comme cela pouvait être le cas dans les salons musicaux du XIXème siècle, bien qu’ils assurent tout de même une fonction sociale, voire même communautaire. Ils ne se destinent, bien souvent, qu’à signaler une présence, qu’à signer une écoute. Et c’est bien là le fait communautaire par excellence : simplement affirmer appartenir à un groupe, en se manifestant, établissant de ce fait une communauté de présences. Être là, c’est déjà en être. Le protocole de diffusion en streaming propose alors une articulation tripartite où l’écoute se prolonge par son expression possible (c’est-à-dire par sa manifestation via le commentaire) dans un lieu, un site, délimité et reconnu. Aussi, à l’expérience communautaire de dire, signer et manifester son écoute, se double une expérience proprement territoriale. Laisser un commentaire, au-delà de son contenu même, c’est déjà dire : « mon écoute est passé par là, s’est actualisée ici »; c’est poser un jalon, c’est produire le témoignage d’avoir arpenter ce territoire-là.

Et ce territoire ainsi constitué se révèle être diffracté : à l’espace virtuel, au cyberespace, donc, se superpose des lieux réels (la rue, le domicile, le bureau, etc.) où va pouvoir s’actualiser le flux audio, suspendu entretemps dans les stockages-nuages. Où qu’il se trouve, l’auditeur peut, pour peu qu’il puisse utiliser un terminal connecté au Réseau, partir à la recherche du son ou de la musique désirée qui ne manquera pas d’apparaître, quelque part. Ainsi, le stockage globalisé, le cloud, s’appréhende comme une prothèse déterritorialisée qui s’actualise chaque fois que l’auditeur ouvre puis coupe le flux. La dissipation des « lieux d’écoute » spécifiques au profit d’espaces virtuels consultables partout achève donc le sacre d’une écoute qui est désormais qualifiée de « nomade ».

Mais ce qui est nomade, si l’on en croit Gilles Deleuze et Félix Guattari, n’est pas pour autant détaché d’un territoire, bien au contraire. C’est d’ailleurs en vertu de cet attachement, en vertu du fait qu’il ne veut pas le quitter, qu’il ne veut pas bouger, en quelque sorte, que le nomade est contraint de voyager à travers ce territoire, suivant un circuit défini, planifié. De la même manière, l’écoute d’objets dématérialisés et leur consultation à l’aide de flux accessibles partout génèrent ce même possible piétinement de l’écoute. On peut écouter sa musique partout. Partout à chaque instant, on peut écouter la même musique. Le lieu indiffère, sa signature acoustique également. L’écoute nomade est une écoute captive d’un espace atopique qui peut, à loisir, produire, encore et encore, le même son, la même musique. Le nomadisme de l’écoute n’est donc pas un processus de diversification des expériences d’écoute, mais bien plus une tentative d’homogénéisation.

Il faut donc être vigilant, tirer parti de la multitude de flux, les arpenter, les explorer, se déterritorialiser sans cesse. Il n’y pas un flux. Il y en a une profusion. L’espace virtuel est un immense delta où se perdent d’innombrables chenaux audibles se ramifiant à l’infini. Alors, on peut signer son passage, poser un caillou pour établir son territoire, en faire une constellation, mais il faut reprendre la route, ne pas faire du sur-place où, à l’infinité des possibilités, s’oppose une démarche tautologique qui cherche à reproduire, constamment, un même état, une même expérience d’écoute. Il faut donc être un voyageur infatigable de l’espace audible, à l’écoute des flux.

François J. Bonnet
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

François J. Bonnet est membre du Groupes de Recherches Musicales de l’INA, chargé de programmation et coordinateur pédagogique du parcours acousmatique et arts sonores. Il enseigne par ailleurs à l’Université Paris 1 – Panthéon-Sorbonne. Son premier ouvrage, Les mots et les sons : un archipel sonore, paru en 2012 aux Éditions de l’Éclat est préfacé par Pierre Szendy.

janvier / avril 2014

> Préambule :

Passionnant, déroutant, inquiétant…

Depuis un quart de siècle environ, c’est-à-dire depuis l’arrivée en masse de l’informatique personnelle et grand-public, notre présent se conjugue au futur. Cette conjugaison a ouvert la voie à « la numérisation du monde ». Plus précisément à un processus généralisé de numérisation (image, son, etc.) qui redessine notre rapport au temps et à l’espace, à l’imaginaire et au monde, et ce quelque soit notre champ d’activité (communication, éducation, économie, santé, etc.). Un phénomène passionnant, déroutant, inquiétant…

Ce numéro de MCD est né de notre volonté de cartographier ce phénomène. Naissance difficile, s’il en est, puisque assujettie à des reports et aléas, que chaque publication rencontre au demeurant, mais qui nous ont laissé le temps d’approfondir le sujet. Et de renforcer notre motivation quant au fait de mettre provisoirement entre parenthèses le discours des artistes du numérique auxquels nous ouvrons habituellement nos pages, au profit d’une parole plus scientifique, plus universitaire.

Le véritable point de départ de cette édition remonte en effet à une conversation informelle que nous avons eue il y a quelques années avec de jeunes chercheurs en sciences-sociales, en marge d’un article-interview. Leurs champs de recherches (les avatars, le gaming, le hacking, les communautés virtuelles…) — inimaginables pour les générations antérieures — nous ont convaincus de renouer avec la fameuse question du passage de l’analogique au digital. Une des problématiques centrales nos propres recherches en philosophie et sociologie, en DEA puis en Doctorat, à Paris 1 / Panthéon-Sorbonne sous la direction de M. Alain Gras, dans les années 80 et début 90.

Avec un décentrage : depuis, donc, ce n’est plus à proprement parler le passage comme tel qui fait l’objet d’études. Cette translation vers une société numérique est actée, pour le meilleur et pour le pire; bien que cette phase soit encore inachevée comme en témoignent, en particulier, les nombreux soubresauts dans le domaine culturel et social qui obligent à repenser des modèles économiques et hiérarchiques de manière horizontale et transversale…

Mais demeure la question de ses modalités d’inscription, de transcription, de souscription (ou d’adhésion, si vous préférez). De l’arrière-monde que cela implique. Du nouveau monde que cela dessine. Des mondes possibles que chaque « progrès » scientifique et technique laisse entrevoir. Des mondes chimériques que nous promettent aussi les bio et nano-technologies. Sachant que nous ne sommes qu’au début de ce processus…

Aujourd’hui nous assistons, impuissants, au développement presque heure par heure de cette hydride numérique qui colonise la moindre parcelle de notre quotidien. Et au final, avec le verrouillage des logiciels et la réification des données, pour ne pointer que deux travers de cette nomenclature du monde, la numérisation s’avère plus une entreprise de cryptage que de décryptage.

C’est pourquoi nous voulions croiser les propos de philosophes, sociologues, anthropologues, mathématiciens, géographes, médecins et ingénieurs, à propos de ce changement de paradigme qui marque notre entrée dans le XXIème siècle. Comme un jeu de piste multi-directionnel, mais non exhaustif, faut-il le souligner, afin d’éclairer les différentes facettes de cette révolution civilisationnelle; tant au niveau théorique et esthétique, que sur le plan pratique et critique…

Laurent Diouf – Rédacteur en chef

> Sommaire :
Mutations technologiques
Réalité augmentée
Corps numérisé
Interaction homme / machine
Géolocation & urbanisme
Esthétique numérique
Dématérialisation symbolique
Objets communicants
Imaginaire & identité 2.0
Réseaux & culture médiatique
Art & science
Flux & biotechnologie
Ontologie & codage du vivant
Ubiquité & virtualité

> Rédacteurs :
Anne Petiau
Dominique Moulon
Emmanuel Ferrand
Emmanuel Guez
François J. Bonnet
Gérard Dubey
Jean-François Lucas
Jean-Paul Fourmentraux
Jean-Pierre Cometti
Joël Valendoff
Laure Ferrand
Louise Poissant
Michel Tibon-Cornillot
Michel Puech
Norbert Hillaire
Olivier Zattoni
Philippe Boisnard
Sylvain Genevois

> Remerciements :

Ministère de la Culture et de la Communication