Le 8 décembre 2013, Mehdi Belhaj Kacem (2), lors de la séance introductive de son séminaire sur le nihilisme, formulait, sur le ton de la boutade il est vrai, son impatience à ce que la science arrive enfin à ressusciter Platon, Descartes et Spinoza, sur la base de quelques reliques d’ADN que ces illustres personnages auraient laissé ici ou là.

Que cela puisse faire l’objet d’une boutade implique que, déjà bien ancrée dans notre imaginaire collectif, existe l’idée selon laquelle un être vivant peut être entièrement codé, numérisé, par son ADN. C’est en fait un lieu commun de nombreux produits culturels, films, romans à succès ou jeux vidéo, alors même que, dans la communauté scientifique, rares sont ceux qui soutiennent que le phénomène de la vie puisse se réduire à quelques dizaines de milliers d’instructions (gènes) contenues dans notre patrimoine génétique.

Wanted : advanturous women to give birth to Neanderthal man (3)
Mais il est vrai que cette même communauté scientifique, pour toute sorte de raisons plus ou moins avouables, aime entretenir l’ambiguïté. Ainsi, en 2012, George Church, l’un des acteurs de premier plan de la biologie synthétique (professeur à Harvard aux allures de sympathique père Noël, il n’oublie pas de faire fructifier son expertise dans plusieurs start-ups médicales), expliquait, dans une interview au magazine Der Speigel (4) reprise ensuite de manière virale sur le net, qu’il ne lui manquait essentiellement plus qu’une mère porteuse pour donner naissance au premier bébé néandertalien depuis 30.000 ans (toujours sur la base de reliquats d’ADN). George Church n’est a priori pas un spécialiste, ni de la reproduction ni du clonage animal, et les experts sont unanimes, une telle opération est, pour de multiples raisons, tout à fait hors de portée des techniques actuelles ou même simplement actuellement envisageable. Il s’agit probablement pour Mr Church de créer le buzz et de mettre en valeur les bien réelles compétences de ses équipes dans les techniques d’édition de l’ADN. Dans une communauté scientifique toujours plus soumise à la pression de la compétition, de la publication et des brevets, et dont la recherche principale est celle des financements, les chefs de labos sont devenus experts en storytelling, et ce genre d’écart de langage est devenu commun et accepté. Les scientifiques savent lire entre les lignes, mais l’impact sur le grand public est incontrôlable. S’alimente ainsi le fantasme d’une numérisation du vivant, croyance populaire dont on peut par ailleurs se demander si elle ne sert pas des intérêts mercantiles dans les sphères de la médecine (où l’on doit convaincre du bien-fondé des nouveaux tests et médicaments commercialisés) ou de l’agro-industrie (où l’on doit faire passer l’idée que l’on a une bonne maîtrise des techniques OGM).

En décembre 2013, à l’heure où ces lignes s’écrivent, la société 23andMe fait les gros titres des journaux suite à ses démêlés avec la FDA, l’agence de sécurité sanitaire américaine. Cette affaire est emblématique du statut de la biologie à l’heure de l’économie numérique. 23andMe commercialise auprès des particuliers, via Internet et à des prix très accessibles, des offres de séquençage du génome, et proposait l’accès en ligne à divers services de génomique personnelle (5). Concrètement, contre l’envoi d’un peu de salive et de 99 USD, on obtenait quelques indications sur d’éventuelles prédispositions à certaines maladies, celles que l’on peut relier statistiquement à l’état de tel ou tel gène. C’est la difficulté de l’interprétation de ces statistiques, due au fait que les prédispositions sont la plupart du temps très ténues, voire non significatives, qui motive l’avis de la FDA : il y aurait danger à (sur)interpréter ces données sans l’avis d’un spécialiste. Danger, par exemple, de prendre des mesures préventives inadaptées (telle une double mastectomie). En réalité, 23andMe, suivant en cela les comportements au-dessus de lois de certaines majors du numérique auxquelles elle est d’ailleurs historiquement reliée, a, au fil des années, sciemment négligé les rappels à l’ordre de la FDA, et l’on peut soupçonner que le but ultime d’une telle compagnie n’est pas de vendre un service au particulier, mais bien de constituer, sur le modèle de Facebook, Google ou Apple avec les données personnelles de leurs clients, une formidable base de données génétique, qu’il sera bien temps de valoriser plus tard.

Le paradigme numérique en biologie et l’ingénierie du vivant.
Les inquiétudes de la FDA à propos de 23andMe sont à placer dans le contexte plus général de la montée en puissance d’une forme de réductionnisme génétique en médecine et en biologie. Depuis la découverte, en 1953, par Francis Crick, Rosalind Franklin et James Watson de la structure en double hélice de l’ADN, la biologie s’est peu à peu recentrée autour de ce que Crick lui-même a nommé le « dogme central de la biologie moléculaire » (6). Il s’agit d’un modèle qui décrit comment, en première approximation, l’information génétique contenue dans l’ADN est transmise, reproduite, interprétée en protéines, etc. Ce modèle simplifié, bottom-up, où l’on cherche à expliquer la construction et le fonctionnement d’un organisme macroscopique en fonction d’instructions élémentaires microscopiques, assemblées linéairement comme dans un programme caché au plus profond des cellules, conduit naturellement à développer une analogie avec l’informatique. Le vocabulaire en vogue dans certaines branches de la génétique en fait foi : on parle non seulement de programme génétique, mais parfois même de machine de Turing et de système d’exploitation (pour parler du contrôle de l’expression des gènes au sein de la cellule).

Une locution, biologie synthétique, a fait fortune hors des labos. Utilisée, semble-t-il, pour la première fois en 1912 par Stéphane Leduc, sa gloire actuelle est à mettre au crédit de Craig Venter, l’entrepreneur pionnier du séquençage du génome humain qui est aussi à l’origine de la création ex nihilo d’ADN « viables », entièrement synthétiques. C’est une remarquable prouesse technologique, mais qui reste marginale et surtout limitée à certains cas très simples. Dans les milieux de la recherche, on parle plutôt de « biologie de synthèse ». Les objectifs sont plus modestes et mieux circonscrits (voir par exemple l’article prospectif de François Kepes) (7), et le terme recouvre l’ensemble des techniques permettant de concevoir et d’éditer des génomes aussi rationnellement que possible, dans le but de transformer des cellules en petites usines chimiques (production d’insuline, de biocarburant…). On est très éloigné des promesses mirobolantes que l’on sert au grand public (voir par exemple cette conférence TED où un chercheur du Génopôle d’Évry explique que des arbres seront reprogrammés pour croître en forme de maison, et qu’à terme, en 2030, on pourra planter son habitation) (8).

Le séquençage proprement dit produit une liste de données brutes organisées linéairement, que l’on doit ensuite analyser avec toute la puissance de l’outil mathématique, statistique et informatique. De ce point de vue la contribution du monde numérique à l’essor de la biologie moderne est fondamentale. L’automatisation, voire la robotisation des procédés est aussi un point clé des analyses génétiques à grande échelle, et à ce titre on peut considérer que les progrès de la biologie moderne sont à créditer plus à cette mécanisation des techniques qu’à une révolution conceptuelle qui n’a pas vraiment eu lieu depuis l’époque du « dogme ». Ce modèle et ces techniques « numériques » ont leurs limites, il est clair qu’on ne peut raconter un être humain en quelques dizaines de milliers d’instructions. Le cas des bactéries, organismes unicellulaires et sans noyau, est déjà remarquablement complexe et en grande partie encore mystérieux. Au-delà de cette structure linéaire, il n’est pas aisé de comprendre la structure spatiale des molécules biologiques, ADN, protéines, manifestement très importante, ainsi que les réseaux de régulation de l’expression des gènes. Le même ADN est présent dans un neurone ou une cellule du derme, mais il s’exprime bien évidemment de manière radicalement différente dans les deux cas. Et ne parlons pas des parties qui ont résisté au séquençage (9), ou de « l’ADN poubelle » (junk DNA), les parties non directement codantes, qui forment en réalité la plus grande partie de notre génome (98% chez l’homme), et dont la fonction, loin d’être élucidée, mais probablement bien réelle, est ignorée par le « dogme ». Remarquons enfin que 23andMe, dans son offre standard, ne séquence en fait que 0,3 % des génomes de ses clients, et ce avec un taux d’erreur non négligeable (10).

Une infinité de nuances de gris
Quoi qu’il en soit, rares sont les situations où un gène correspond à un caractère précis, de sorte qu’une mutation corresponde précisément à une maladie. On est en fait en présence d’un exemple typique de système complexe, où des ensembles de gènes interagissent mutuellement et avec l’environnement, via de nombreuses boucles de rétroaction. La biologie à ceci de particulier qu’elle ne connaît guère les 0 et les 1, le blanc ou le noir, mais plutôt les nuances de gris, les probabilités, les tendances, les écarts statistiques. De ce point de vue, les inquiétudes de la FDA au sujet de 23andMe sont, comme on l’a vu, en partie justifiées, car des données de ce type sont réellement délicates à interpréter, et l’on peut craindre une automédication naïve et dangereuse. À côté de cela, il est facile de saisir le potentiel commercial que représente l’exploitation de la crédulité populaire relativement à ces données génétiques.

En réalité, tout de passe comme si la nature considérait ce système complexe, où l’on peut difficilement isoler la cellule du continuum de son environnement externe ou interne, à l’inverse de la vision « bottom-up » du dogme. S’il est une branche de la biologie qui a conduit à des bouleversements conceptuels profonds dans notre vision du vivant, c’est bien les sciences de l’évolution, c’est-à-dire la compréhension des effets subtils de la sélection naturelle, selon un point de vue qui repose sur l’observation statistique de grandes populations d’organismes vivants, et ce sur de nombreuses générations. Bien entendu, le génome joue un rôle fondamental et central dans la compréhension de l’évolution, mais l’information génétique n’y a pas de sens lorsqu’elle est isolée. Elle doit toujours être replacée dans son contexte évolutif, temporel et dynamique. Une bonne partie des critiques sérieuses visant l’usage des technologies OGM dans l’agro-industrie pointent l’ignorance de ce fait et de ses conséquences (11).

Biomimétisme
Les solutions « trouvées » par la nature ne doivent rien à un ingénieur qui en aurait développé les éléments, tels ceux d’une voiture, pièce par pièce, par l’édition locale de l’ADN via des opérations de type copier-coller. Ces « solutions naturelles » sont d’ailleurs souvent bien plus efficaces, économes et optimales que nos réalisations technologiques, et elles restent en grande partie mal comprises. Que l’on compare, en termes de degrés de liberté, de souplesse et d’efficacité énergétique, un bras humain, muni de ces moteurs extraordinaires que sont les muscles, et un bras robotisé, articulé autour de moteurs électriques. Que l’on compare la photosynthèse et nos technologies solaires à base de silicium. La vogue actuelle du biomimétisme, qui consiste à s’inspirer de ces « solutions naturelles » pour faire avancer nos technologies, quoi que très prometteuse, en reste bien souvent à l’idée de copier la nature via la traditionnelle approche bottom up de l’ingénierie, sans en assimiler les méthodes.

Numérisation et dévitalisation de l’ADN.
La molécule d’ADN possède des propriétés physico-chimiques remarquables, qui font que, en assemblant des paires de base le long de cette double hélice, on peut y coder formellement, indépendamment de tout sens biologique, à peu près n’importe quelle information, et ce en grande quantité. Si elle est conservée dans de bonnes conditions, cette molécule est stable et pérenne, et on peut imaginer de véritables disques durs à ADN (12), si toutefois l’on surmonte la lenteur des procédés d’écritures et de lecture. Mais en aucun cas il ne s’agira de disques durs vivants ! Bien au contraire, cette même molécule d’ADN, replacée dans son contexte vivant se trouvera constamment altérée et transformée, et l’information non reliée à la vie de la cellule sera remixée, rapidement diluée et finalement en grande partie détruite. Par exemple, les parties du génome de l’artiste Eduardo Kac, que celui-ci a fait intégrer dans une lignée de pétunias (Edunia), sont insignifiantes du point de vue la théorie de l’évolution. On peut espérer les préserver uniquement parce que cette plante est soigneusement cultivée. Il en va de même des caractères ornementaux de la plante. Son côté « non naturel », revendiqué par Kac, n’a donc pas grand-chose à voir avec la manipulation génétique effectuée. Une autre œuvre d’Eduardo Kac, Genesis, met d’ailleurs remarquablement en valeur ces phénomènes d’évolution du génome : une phrase de la bible est codée dans l’ADN d’une population de bactéries. Soumise à des ultraviolets accélérant le taux de mutation, la phrase transformée et méconnaissable est redécodée à la fin de la performance (13).

L’une des formes extrêmes de la biologie synthétique, l’approche par biobricks, popularisée par Drew Endy du MIT, et le concours iGEM, mais qui est contestée au sein même de la communauté (14), touche un public d’amateurs avertis (pour la plupart étudiants) et le mouvement bio-DIY des biohackers. On pourrait dire que la biologie synthétique est à la biologie ce que la norme MIDI est à la musique, et, de ce point de vue, la contribution des biohackers relèverait de la musique 8 bit et des chiptunes, jusque dans son côté bricolé et open source. C’est à dire quelque chose d’intéressant et de créatif — le concours iGEM a donné lieu, entre autres choses, à des procédés de détection de polluants —, mais tout de même de limité dans son ensemble. Malgré ce côté libre et collaboratif, iGEM se présente ouvertement comme une entreprise pédagogique volontariste destinée à renforcer l’acceptabilité par le public des techniques transgéniques (15).

The inner life of the cell (16)
Ce petit film en images de synthèse a connu un petit succès sur le net. Issu de la prestigieuse université de Harvard, il décrit le fonctionnement de la cellule, dépeinte sur le mode d’une usine où s’activent divers agents, des moteurs moléculaires, des protéines-robots évoluant le long des microtubules, dont la représentation semble librement inspirée de l’imaginaire visuel de la science-fiction. Il s’agit certainement d’un schéma simplificateur fécond pour penser la complexité de la cellule, mais cette présentation mécaniste ne laisse plus beaucoup de place à l’aléatoire et aux équilibres incertains qui font la spécificité du biologique. Après le canard de Vaucanson, l’explication physico-chimique de la vie à la Stéphane Leduc, les dérives scientistes et eugénistes du XXème siècle et la vague cybernétique des années 50, c’est donc un nouvel avatar de la vision mécaniste de la vie qui est à l’œuvre aujourd’hui comme schéma dominant de pensée de la biologie moderne. À tout le moins est-ce cela que l’on sert au grand public via les média, les conférences TED, voire même dans les musées où l’on assiste à un développement exponentiel des initiatives art-science.

Art washing
En effet, les grandes conférences scientifiques internationales de biologie de synthèse sont maintenant dotées de sections « bio-art » (17), et les grandes institutions de la technoscience, publiques ou privées, ne se privent pas de financer des prix artistiques, des résidences d’artistes ou des expositions. On peut les soupçonner de vouloir en profiter pour redorer leur blason parfois quelque peu terni. Quel meilleur vecteur que le financement des artistes, pour asseoir l’acceptabilité d’une technique auprès du grand public ? L’artiste va parfois revendiquer un discours critique, mais si celui-ci s’inscrit en toute bonne foi au sein du dogme et prend pour acquis l’approche réductionniste, afin éventuellement d’en interroger les réalisations et les perspectives, le tour est joué. Pour pas cher, on peut diffuser un schéma de pensée auprès d’un public cultivé et prescripteur (18).

La biologie est-elle un art numérique ?
Les institutions du monde de l’art, musées ou festivals, spécialisées dans l’art numérique et des nouveaux médias ont pour la plupart étendu leur compétence au domaine du « bio-art ». Mais il ne s’agit pas d’une ouverture aux artistes qui, tel Michel Blazy, sont en prise directe avec le vivant. Ce qui frappe en premier lieu lors de la visite de l’exposition En Vie / Alive (19) qui s’est tenue à Paris l’été dernier à la fondation EDF, c’est l’omniprésence d’écrans, de machines, de schémas et de wishfull thinking, qui contraste avec le confinement dans lequel étaient tenues les rares formes de vie présentées, tel ce cactus chevelu de Laura Cinti (20), provocation très subtile, mais pas clairement assumée : les poils qui remplacent les épines, contrairement à ce que le public est invité à s’imaginer, ne sont en rien le résultat de l’introduction d’un gène de kératine. Impossible aussi de ne pas remarquer le discours de remédiation environnementaliste, qui relève de choix curatoriaux, et qui donne à voir des œuvres transgéniques, pour la plupart virtuelles, comme des manières de palier les effets du réchauffement climatique et de l’extinction massive et rapide des espèces. On rejoint ainsi le fantasme de « dé-extinction », (recréer de la biodiversité par génie génétique), dont le bébé néandertalien de George Church est un symptôme. Le message implicite n’est-il pas que finalement on peut continuer à polluer, les ressources infinies d’une géo-ingénierie version bio nous permettrons de trouver des solutions élégantes ?

The Human Brain Project
À moins que la solution la plus élégante ne soit tout simplement d’abandonner notre enveloppe corporelle et de se fondre dans le réseau ? L’analogue contemporain du Human Genome Project des années 90 (séquençage du génome humain), le Human Brain Project, ne manque pas d’alimenter ce genre de fantasmes. Basée en Suisse, cette initiative internationale déjà financée à hauteur de 1 milliard d’euros s’est fixée pour but de réaliser rien de moins que la modélisation complète, à l’aide de supercalculateurs, du cerveau humain. L’histoire dira si cet espoir est raisonnable, ou si ces effets d’annonce, inévitablement accompagnés de perspectives thérapeutiques grandioses (Alzheimer et Parkinson ne sont jamais loin), ne sont là que pour faire rêver les décideurs et les financeurs. Il est fort possible, que, comme pour le Human Genome Project, ces espoirs soient déçus, mais qu’il en résulte de nombreuses découvertes importantes, inattendues et orthogonales aux idées initiales (chaque scientifique sait bien cela lorsqu’il dépose une demande de financement). Mais le message qui persiste auprès du grand public reste conforme au paradigme réductionniste et alimente les délires transhumanistes à la Ray Kurzweil (21) : l’homme est une machine, qu’avec un peu d’efforts nous pourrons réparer, dupliquer, voire améliorer, synthétiser, et finalement uploader dans un nuage.

Le Human Brain Project s’intègre naturellement dans l’évolution récente des neurosciences, marquée par les progrès des technologies d’imagerie médicale, qui permettent chaque jour de voir un peu plus loin dans le cerveau. Mais là aussi, la sur-interprétation guette, et l’idéologie pointe souvent le bout de son nez. Les recherches, encore onéreuses et effectuées sur de faibles cohortes de patients, sont souvent entachées de biais statistiques et de présupposés idéologiques (expliquer la violence par des schémas neuronaux), voire de fraudes (22). L’une des marques de ces idéologies en vogue est de vouloir tout ramener à des quantités mesurables, à des indices, à des classements (QI, violence, bonheur…), et, de ce point de vue, on assiste bien à une numérisation, un échantillonnage, une discrétisation de l’humain, qui laisse passer entre ses mailles toute sorte d’aspects qualitatifs du vivant.

Dans l’univers discret, fini et élémentaire du célèbre jeu de la vie de John H. Conway (23), on peut voir apparaître des comportements arbitrairement complexes (en réalité, tous les phénomènes calculables). Le Human Brain Project, interprété au sens fort (celui que l’on vend au grand public), revient à faire l’acte de foi que la conscience humaine est une propriété émergente d’un tel système, certes complexe, mais fini. On peut à l’inverse faire l’acte de foi que l’image numérique du vivant (données génétiques, flux d’informations dans un graphe neuronal, mesures biologiques…) n’est qu’une projection, certes importante et concrètement utilisable, permettant par exemple d’identifier un criminel avec une certaine probabilité ou de ficher les citoyens, mais offrant une image radicalement réduite du phénomène biologique.

Par exemple, décrire un être vivant par un ensemble des données numériques implique que l’on puisse le circonscrire assez précisément dans le temps et dans l’espace. Rien n’est moins clair dans le monde biologique. Qu’est-ce qu’un gène ? Les définitions varient selon les contextes. Qu’est-ce qu’un virus ? Est-il une forme vivante ? La prise de conscience récente de l’omniprésence des virus et de leur rôle fondamental fait bouger des lignes que l’on croyait bien établies, en particulier via la découverte de virus géants (24). Qu’est-ce qu’une plante ? Peut-on la considérer indépendamment des micro-organismes du sol dans lequel elle croît ? Peut-on isoler l’homme de l’écosystème complexe qui peuple ses muqueuses ? La réponse est tellement clairement négative que, comme dans une sorte de fuite en avant, on explore maintenant l’ensemble des génomes de notre flore intestinale, un métagénome que l’on estime 150 fois plus grand que le nôtre.

Il ne s’agit pas ici de fournir des arguments en faveur d’un obscur vitalisme qui rendrait le biologique inaccessible à la technique, ni même d’une critique du réductionnisme en général, dont on peut considérer qu’une certaine dose est consubstantielle à la démarche scientifique, et encore moins de nier les progrès fulgurants des technologies du vivant. Il s’agit uniquement de montrer les limites d’un réductionnisme véritablement réducteur, qui fait fi de la nécessaire modestie de la science, dans un contexte où chaque nouvelle découverte fait en réalité apparaître une complexité supplémentaire et inattendue. Il s’agit aussi d’identifier les dérives idéologiques et les manipulations qui se cachent derrière la sur-interprétation démesurée des bien réelles convergences entre numérique et biologique dont nous sommes les témoins.

Dans une société où notre rapport à la nature est de plus en plus distant, où le commun des mortels n’a plus de contact direct avec les animaux ou avec les cycles de la nature via les travaux de champs, dans une société aseptisée, exempte des odeurs de la pourriture et de la mort et où l’on cache dans des nuggets de poulet (25) les bas morceaux des animaux que notre industrie produit en masse, la numérisation du vivant telle qu’elle s’engage revient à élargir plus encore ce fossé béant, à renforcer l’idée présomptueuse d’un contrôle que l’on aurait sur la vie et la nature, voire à valider des choix favorables à quelques grands groupes dont les intérêts n’existent qu’à court terme. Mais la vie, qui n’a pas attendu l’homme pour établir ses réseaux hautement connectés (26), se moque bien de nos prétentions.

Emmanuel Ferrand
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

Emmanuel Ferrand est Maître de conférences à l’Institut Mathématique de Jussieu / Projet Analyse Algébrique.

(1) Ce titre est un clin d’œil à l’article de Johan Söderberg, « Illusoire émancipation par la technologie », Le Monde Diplomatique, Janvier 2013. www.monde-diplomatique.fr/2013/01/SODERBERG/48629

(2) Mehdi Belhaj Kacem, séminaire à La Générale, le 8 décembre 2013. http://youtu.be/_g04bug65ZE

(3) Le Daily Mail, 20 janvier 2013 a reproduit les informations du Spiegel (ci-dessous) en prêtant à George Church cet appel à une mère porteuse qu’il n’avait pas lancé. C’est cet article qui s’est répandu de manière virale sur le net. www.dailymail.co.uk/news/article-2265402/Adventurous-human-woman-wanted-birth-Neanderthal-man-Harvard-professor.html

(4) Spiegel Online International, 18 janvier 2013. Interview with George Church : Can Neanderthal be brought back from the dead ? www.spiegel.de/international/zeitgeist/george-church-explains-how-dna-will-be-construction-material-of-the-future-a-877634.html

(5) Un exposé très clair de l’affaire 23andMe par Rémi Soussan, blog de Lemonde.fr, 20 décembre 2013. http://internetactu.blog.lemonde.fr/2013/12/20/la-genomique-personnelle-dans-la-tourmente/

(6) Le mot « dogme » est improprement employé ici pour une théorie.

(7) François Kepes, « La biologie de synthèse : développements, potentialités et défis ». Réalités industrielles, février 2010. http://www.annales.org/ri/2010/ri-fevrier-2010/Kepes.pdf

(8) Franck Deleplace, Programmer les organismes vivants, TEDxParisSalon, 17 octobre 2012, Gaité Lyrique, Paris. http://youtu.be/S0OFfuUOX5U

(9) L’hétérochromatine reste une composante mal séquencée des génomes : « Mysteries of heterochromatic sequences unravelled », Nature Reviews Genetics 8, 567 (août 2007).

(10) 23andMe sequences are all wrong, Lior Pachter,30 novembre 2013, http://liorpachter.wordpress.com/2013/11/30/23andme-genotypes-are-all-wrong/

(11) Voir par exemple l’apparition de résistances aux toxines de maïs transgéniques : www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0069675

(12) Comme l’a démontré George Church en 2012.

(13) Ingeborg Reichle, dans Art in the age of technoscience, p. 129, fait remarquer que le travail de Eduardo Kac peut être considéré comme un discours sur le flux de nouvelles sensationnelles qui nous viennent des sciences du vivant, plus qu’une réflexion sur le vivant proprement dit.

(14) Selon la base de données PubMed, la notion de biobrick est anecdotique dans la littérature scientifique (quelques dizaines d’articles). La Biobricks Foundation définit son but de manière messianique : we envision synthetic biology as a force for good in the world. http://biobricks.org/about-foundation/

(15) iGEM ne considère la biologie synthétique que based on standard parts. http://igem.org

(16) The inner life of the cell, Biovisions, Harvard University. http://multimedia.mcb.harvard.edu/anim_innerlife.html

(17) International symposium on synthetic biology, Heidelberg, décembre 2013. www.synbio-symposium.de/sb2013/index.php/schedule

(18) Cela ne présume en rien de la qualité intrinsèque des œuvres. Que l’on pense à la postérité artistique de la cybernétique, idéologie prégnante dans les années 50.

(19) Exposition En Vie / Alive, Fondation EDF, Paris, 2013 http://thisisalive.com

(20) http://c-lab.co.uk/project-details/the-cactus-project.html

(21) How to create a mind : the secret of the human thought revealed, Ray Kurzweil, 2012.

(22) « Neurosciences, les limites de la méthode », Thomas Boraud, François Gonon, Le Monde, 30 septembre 2013. www.lemonde.fr/sciences/article/2013/09/30/neurosciences-les-limites-de-la-methode_3487335_1650684.html

(23) Le jeu de la vie est un automate cellulaire, proposé par J.H. Conway en 1970, qui se programme en quelques lignes, mais qui montre des comportements arbitrairement complexes. Il peut simuler n’importe quelle machine de Turing.

(24) Defining life : the virus viewpoint, Patrick Forterre, Orig Life Evol Biosph. avril 2010. www.ncbi.nlm.nih.gov/pmc/articles/PMC2837877/

(25) The autopsy of chicken nuggets reads « chicken little« , Richard D. deShazo, et al, American Journal of Medecine, novembre 2013.

(26) Architecture of the Wood-Wide Web : Rhizopogon spp. genets link multiple Douglas-fir cohorts, New Phytologist, 2009. http://nature.berkeley.edu/brunslab/mycorrhizal/papers/beiler2009.pdf

streaming et marquage de l’écoute à l’ère numérique

L’écoute est un processus disposé à s’épanouir dans une intimité. L’écoute parle à celui dont elle est l’écoute. Fonctionnellement, l’écoute s’articule à une machinerie poly-sensorielle dont le rôle est de renseigner l’individu sur le monde qui l’entoure. Sens parmi les sens, l’écoute s’adresse à soi, mais plus spécifiquement à la partie de soi dans le monde. À ce titre, l’écoute est un dispositif primordial de la communication entre soi et son environnement, mais également entre soi et les autres : sans écoute, pas de parole. Entendre devient donc également un enjeu communautaire, en tant qu’elle est au centre du fonctionnement de la langue orale. L’écoute, ainsi, est tendue vers l’autre et l’extérieur. Elle invite l’en-dehors à se manifester. Elle le fait parler.

Longtemps, tous les objets de l’écoute étaient en rapport de coexistence avec l’auditeur ou, pour le dire autrement, l’individu à l’écoute ne pouvait entendre que ce qui se déroulait dans un champ spatial et temporel qui lui était contingent, champ qui se dimensionnait d’ailleurs à la mesure de ces capacités auditives. On vivait inéluctablement dans le même espace-temps que ce qui avait produit le son que l’on entendait. L’avènement de la reproductibilité de l’audible a brisé cette contingence certaine. Ce qu’on entend désormais a pu être prononcé ou exécuté il y a plus d’un siècle, dans des lieux situés à des milliers de kilomètres de nous, et dans lesquels, pour un bon nombre d’entre eux, on ne se rendra probablement jamais.

Le son, une fois domestiqué, c’est-à-dire médiatisé, a été dupliqué en autant d’empreintes que la technologie le permettait (grâce à la phonographie) et a pu être transmis à grande distance de manière quasi-instantanée (grâce à la radiophonie). Il nous est sans doute impossible, aujourd’hui, d’appréhender avec justesse le caractère frappant des premières expériences d’écoute de voix d’êtres distants ou disparus. On pourrait s’interroger, d’ailleurs, sur l’identité du premier individu à avoir été réentendu après sa mort. On pourrait chercher à savoir qui était ce premier être à avoir laisser derrière lui sa voix mais surtout qui, parmi ses survivants, a fait cette expérience primordiale d’entendre à nouveau les paroles de quelqu’un qui ne parle plus. De nos jours, cette écoute des sons fantômes est devenue une expérience banale : le corps sonore s’est dissipé au profit de ses enregistrements.

Mais à l’ère de cette écoute médiate, schizophonique, s’est déjà superposée celle d’une écoute sans objet. Le support physique, désormais, est également en voie de disparition et subit déjà une raréfaction considérable. Seule l’interface perdure. L’écoute, désormais, prélève des flux. La dématérialisation des sons s’est donc affranchie de ce qui a été, sous de multiples avatars, l’emblème de la production en masse de l’audible : l’empreinte. Pour autant, l’empreinte existe encore, bien que dissimulée dans des espaces de stockages toujours plus inaccessibles, toujours plus nuageux. Elle perdure, stockée en états électriques ou en potentiels magnétiques, circulant dans le réseau puis se transcodant dans la mémoire vive des machines qui nous les donnent à entendre. Aussi, ce qui se dématérialise est moins le son lui-même, que l’objet le manifestant.

La musique a été, durant toute l’histoire de l’écoute médiate, invariablement liée aux supports sur laquelle elle était inscrite (fil de fer, disque souple, bande magnétique, disque optique, etc.). Aujourd’hui, son accès ne se cristallise plus autour d’objets que l’on possède, mais autour de lieux où l’on accède, fussent-ils des lieux virtuels. Le protocole préliminaire à une écoute médiate n’est donc plus tant de coupler un dispositif intermédiaire à un support que d’accéder à un canal de diffusion. À ce titre, l’écoute en ligne ne se distingue pas encore d’une écoute radiophonique, où l’on dérive sur les bandes de fréquences jusqu’à trouver une station délivrant un flux satisfaisant. Mais, plus qu’une simple déclinaison du protocole radiophonique adapté à Internet, le streaming audio apporte à l’écoute médiate des conditions nouvelles, susceptibles de la modifier en profondeur.

L’une de ces nouvelles conditions, déterminante dans le façonnage de l’écoute, est que, si l’accès au flux radio est évanescent, en ce sens où le son disparaît dans l’instant même de son apparition, le son en streaming, lui, est accessible de manière pseudo-permanente (c’est-à-dire, à tout moment, dès lors qu’il est encore mémorisé sur un serveur accessible). La radio a créé cette situation étrange : l’émission de flux continus à l’adresse de récepteurs-auditeurs « muets », n’ayant comme possibilité active, vis-à-vis de ce flux, qu’une simple alternative : écouter ou ne pas écouter. L’accès en streaming redessine cette relation, donnant souvent aux auditeurs, en plus d’une maîtrise temporelle, la possibilité de s’exprimer sur l’objet de leur écoute. Aussi, la lecture en ligne de flux audio autorise, suggère ou encore implique le commentaire, allant parfois jusqu’à l’inscrire à même la forme d’onde représentant le son. Il ne s’agit alors moins d’écouter que de dire son écoute, dans le temps même de son écoute.

Ces commentaires, en effet, ne sont presque jamais des avis argumentés. Ils ne sont pas, non plus, l’occasion de briller socialement, comme cela pouvait être le cas dans les salons musicaux du XIXème siècle, bien qu’ils assurent tout de même une fonction sociale, voire même communautaire. Ils ne se destinent, bien souvent, qu’à signaler une présence, qu’à signer une écoute. Et c’est bien là le fait communautaire par excellence : simplement affirmer appartenir à un groupe, en se manifestant, établissant de ce fait une communauté de présences. Être là, c’est déjà en être. Le protocole de diffusion en streaming propose alors une articulation tripartite où l’écoute se prolonge par son expression possible (c’est-à-dire par sa manifestation via le commentaire) dans un lieu, un site, délimité et reconnu. Aussi, à l’expérience communautaire de dire, signer et manifester son écoute, se double une expérience proprement territoriale. Laisser un commentaire, au-delà de son contenu même, c’est déjà dire : « mon écoute est passé par là, s’est actualisée ici »; c’est poser un jalon, c’est produire le témoignage d’avoir arpenter ce territoire-là.

Et ce territoire ainsi constitué se révèle être diffracté : à l’espace virtuel, au cyberespace, donc, se superpose des lieux réels (la rue, le domicile, le bureau, etc.) où va pouvoir s’actualiser le flux audio, suspendu entretemps dans les stockages-nuages. Où qu’il se trouve, l’auditeur peut, pour peu qu’il puisse utiliser un terminal connecté au Réseau, partir à la recherche du son ou de la musique désirée qui ne manquera pas d’apparaître, quelque part. Ainsi, le stockage globalisé, le cloud, s’appréhende comme une prothèse déterritorialisée qui s’actualise chaque fois que l’auditeur ouvre puis coupe le flux. La dissipation des « lieux d’écoute » spécifiques au profit d’espaces virtuels consultables partout achève donc le sacre d’une écoute qui est désormais qualifiée de « nomade ».

Mais ce qui est nomade, si l’on en croit Gilles Deleuze et Félix Guattari, n’est pas pour autant détaché d’un territoire, bien au contraire. C’est d’ailleurs en vertu de cet attachement, en vertu du fait qu’il ne veut pas le quitter, qu’il ne veut pas bouger, en quelque sorte, que le nomade est contraint de voyager à travers ce territoire, suivant un circuit défini, planifié. De la même manière, l’écoute d’objets dématérialisés et leur consultation à l’aide de flux accessibles partout génèrent ce même possible piétinement de l’écoute. On peut écouter sa musique partout. Partout à chaque instant, on peut écouter la même musique. Le lieu indiffère, sa signature acoustique également. L’écoute nomade est une écoute captive d’un espace atopique qui peut, à loisir, produire, encore et encore, le même son, la même musique. Le nomadisme de l’écoute n’est donc pas un processus de diversification des expériences d’écoute, mais bien plus une tentative d’homogénéisation.

Il faut donc être vigilant, tirer parti de la multitude de flux, les arpenter, les explorer, se déterritorialiser sans cesse. Il n’y pas un flux. Il y en a une profusion. L’espace virtuel est un immense delta où se perdent d’innombrables chenaux audibles se ramifiant à l’infini. Alors, on peut signer son passage, poser un caillou pour établir son territoire, en faire une constellation, mais il faut reprendre la route, ne pas faire du sur-place où, à l’infinité des possibilités, s’oppose une démarche tautologique qui cherche à reproduire, constamment, un même état, une même expérience d’écoute. Il faut donc être un voyageur infatigable de l’espace audible, à l’écoute des flux.

François J. Bonnet
publié dans MCD #73, « La numérisation du monde », janv. / avril 2014

François J. Bonnet est membre du Groupes de Recherches Musicales de l’INA, chargé de programmation et coordinateur pédagogique du parcours acousmatique et arts sonores. Il enseigne par ailleurs à l’Université Paris 1 – Panthéon-Sorbonne. Son premier ouvrage, Les mots et les sons : un archipel sonore, paru en 2012 aux Éditions de l’Éclat est préfacé par Pierre Szendy.

janvier / avril 2014

> Préambule :

Passionnant, déroutant, inquiétant…

Depuis un quart de siècle environ, c’est-à-dire depuis l’arrivée en masse de l’informatique personnelle et grand-public, notre présent se conjugue au futur. Cette conjugaison a ouvert la voie à « la numérisation du monde ». Plus précisément à un processus généralisé de numérisation (image, son, etc.) qui redessine notre rapport au temps et à l’espace, à l’imaginaire et au monde, et ce quelque soit notre champ d’activité (communication, éducation, économie, santé, etc.). Un phénomène passionnant, déroutant, inquiétant…

Ce numéro de MCD est né de notre volonté de cartographier ce phénomène. Naissance difficile, s’il en est, puisque assujettie à des reports et aléas, que chaque publication rencontre au demeurant, mais qui nous ont laissé le temps d’approfondir le sujet. Et de renforcer notre motivation quant au fait de mettre provisoirement entre parenthèses le discours des artistes du numérique auxquels nous ouvrons habituellement nos pages, au profit d’une parole plus scientifique, plus universitaire.

Le véritable point de départ de cette édition remonte en effet à une conversation informelle que nous avons eue il y a quelques années avec de jeunes chercheurs en sciences-sociales, en marge d’un article-interview. Leurs champs de recherches (les avatars, le gaming, le hacking, les communautés virtuelles…) — inimaginables pour les générations antérieures — nous ont convaincus de renouer avec la fameuse question du passage de l’analogique au digital. Une des problématiques centrales nos propres recherches en philosophie et sociologie, en DEA puis en Doctorat, à Paris 1 / Panthéon-Sorbonne sous la direction de M. Alain Gras, dans les années 80 et début 90.

Avec un décentrage : depuis, donc, ce n’est plus à proprement parler le passage comme tel qui fait l’objet d’études. Cette translation vers une société numérique est actée, pour le meilleur et pour le pire; bien que cette phase soit encore inachevée comme en témoignent, en particulier, les nombreux soubresauts dans le domaine culturel et social qui obligent à repenser des modèles économiques et hiérarchiques de manière horizontale et transversale…

Mais demeure la question de ses modalités d’inscription, de transcription, de souscription (ou d’adhésion, si vous préférez). De l’arrière-monde que cela implique. Du nouveau monde que cela dessine. Des mondes possibles que chaque « progrès » scientifique et technique laisse entrevoir. Des mondes chimériques que nous promettent aussi les bio et nano-technologies. Sachant que nous ne sommes qu’au début de ce processus…

Aujourd’hui nous assistons, impuissants, au développement presque heure par heure de cette hydride numérique qui colonise la moindre parcelle de notre quotidien. Et au final, avec le verrouillage des logiciels et la réification des données, pour ne pointer que deux travers de cette nomenclature du monde, la numérisation s’avère plus une entreprise de cryptage que de décryptage.

C’est pourquoi nous voulions croiser les propos de philosophes, sociologues, anthropologues, mathématiciens, géographes, médecins et ingénieurs, à propos de ce changement de paradigme qui marque notre entrée dans le XXIème siècle. Comme un jeu de piste multi-directionnel, mais non exhaustif, faut-il le souligner, afin d’éclairer les différentes facettes de cette révolution civilisationnelle; tant au niveau théorique et esthétique, que sur le plan pratique et critique…

Laurent Diouf – Rédacteur en chef

> Sommaire :
Mutations technologiques
Réalité augmentée
Corps numérisé
Interaction homme / machine
Géolocation & urbanisme
Esthétique numérique
Dématérialisation symbolique
Objets communicants
Imaginaire & identité 2.0
Réseaux & culture médiatique
Art & science
Flux & biotechnologie
Ontologie & codage du vivant
Ubiquité & virtualité

> Rédacteurs :
Anne Petiau
Dominique Moulon
Emmanuel Ferrand
Emmanuel Guez
François J. Bonnet
Gérard Dubey
Jean-François Lucas
Jean-Paul Fourmentraux
Jean-Pierre Cometti
Joël Valendoff
Laure Ferrand
Louise Poissant
Michel Tibon-Cornillot
Michel Puech
Norbert Hillaire
Olivier Zattoni
Philippe Boisnard
Sylvain Genevois

> Remerciements :

Ministère de la Culture et de la Communication