Archive d’étiquettes pour : culture libre

archives vidéo à l’ère numérique

Les questions soulevées par l’archivage audio et vidéo à l’ère numérique constituent sans aucun doute l’un des points de contact majeurs entre la philosophie de l’open source et les pratiques artistiques audio et vidéo. Ici, l’archive se définit comme un ensemble de systèmes, de méthodes et d’expériences dans l’élaboration de la collection, la diffusion et l’accès à la connaissance. Inutile de dire que ce qui relie les concepts d’open source et d’archive à UbuWeb est commun à la plupart des protagonistes impliqués dans l’histoire de l’expérimentation audiovisuelle en milieu universitaire, la recherche, l’enseignement, l’étude ou plus généralement à ceux qui s’aventurent dans la recherche — trop souvent ardue — de contenu audiovisuel documentant l’histoire de l’avant-garde.

Kenneth Goldsmith @ Street Poets and Visionaries, Mercer Union. Toronto, 2009.

Kenneth Goldsmith @ Street Poets and Visionaries, Mercer Union. Toronto, 2009. Photo: © C. Jones.

Alors que bon nombre d’organisations dédiées à la « préservation du patrimoine audiovisuel » s’efforcent de résoudre le conflit apparent entre la protection du droit d’auteur et le réseau de diffusion, UbuWeb a fait du libre accès et du mépris du droit d’auteur le symbole et l’instrument de sa révolution. L’expérience d’UbuWeb est unique et absolue, comme son fondateur Kenneth Goldsmith nous le rappelle avec emphase, amenant à se demander comment le projet a pu survivre jusqu’à nos jours. En effet, il s’est développé tout en restant conforme à son principe fondateur.

Kenneth Goldsmith, poète, enseignant et rédacteur en chef du projet PennSound, a fondé UbuWeb en 1996 pour mettre à disposition des œuvres d’art visuel et de poésie concrète. C’est ainsi que la mise en ligne de contenu, introuvable ou épuisé, a commencé. Dès le début, des genres et des catégories de contenu mis à disposition ont quelque peu dépassé les frontières des arts visuels et de la poésie concrète : la poésie sonore a été la première catégorie à ouvrir la voie, à partir de là, s’est rajouté toute la musique d’avant-garde, jusqu’à la création de la section « Film », qui héberge environ 7 500 titres et auteurs. Ce mélange, cette hybridation des disciplines, forme la caractéristique principale du projet, déterminé à encourager des rapports alchimiques entre musique, poésie, littérature, cinéma et vidéo, essais et articles.

Toutes les interviews publiées, le grand nombre d’informations contenues sur le site et le manifeste même du projet rappellent deux règles fondamentales : UbuWeb ne reçoit aucun fond public ou privé et diffuse le contenu sans demander de permission, parce que si nous avions dû demander la permission tout ceci n’existerait pas (1). Nous n’avons pas demandé à Goldsmith comment ils parvenaient à réaliser ce rêve partagé par de nombreux partisans de l’accès libre (freeaccess, open access) et du P2P, parce que cette question a déjà été posée à d’innombrables reprises. Il n’est pas difficile de trouver sa réponse sur le net, qui dit en substance : nous le faisons, c’est tout. Comme vous pourrez le lire dans ses propos, Goldsmith est réticent quand il s’agit de réfléchir ou de faire des comparaisons entre l’expérience d’UbuWeb et le discours plus général de la relation entre archives et accès libre En fait, l’expérience d’UbuWeb est une anomalie au niveau des deux pôles, l’antithétique de ce domaine.

UbuWeb s’éloigne manifestement d’une archive audiovisuelle traditionnelle. Le projet semble plus proche de la dynamique de l’échange P2P, avec laquelle il partage souvent la source de ses contenus, mais aussi l’accès gratuit. Pourtant, UbuWeb est radicalement différent du P2P en ce qu’il ne respecte pas la structure horizontale caractéristique de l’échange P2P, mais suit un schéma à sens unique allant du haut vers le bas, établissant une modalité de transmission des connaissances selon une distribution multivoque (one-to-many).

Pour UbuWeb, le partage est en fait un cadeau (2), mais d’une manière qui contredit celle décrite par Marcel Mauss (3) : elle ne permet ni ne vise à construire une relation, il refuse même toute possibilité de réponse à son offre. Le don d’UbuWeb rappelle la définition du don par Derrida (4) : pour qu’il y ait don, il faut qu’il n’y ait pas de réciprocité de retour, d’échange, de contre-don ni de dette. Si l’autre me rend ou me doit, ou doit me rendre ce que je lui donne il n’y aura pas eu don, que cette restitution soit immédiate ou qu’elle se programme dans le calcul complexe d’une différence à long terme (5).

Selon cette formulation, le don représente l’une des formes les plus radicales de la perturbation de l’économie de marché, de par l’élimination de son rapport d’échange lui-même. Dans ce cadre, UbuWeb joue un rôle particulièrement important en ce qui concerne l’un des aspects plus problématiques de la production de l’open source. Bien qu’apparaissant comme une stratégie innovatrice, la production de l’open source est intégrée aux échanges et aux marchés propres à l’économie capitaliste et continue ainsi à en dépendre. Si le marché définit la valeur des produits culturels, alors, le rôle d’UbuWeb est de préserver les objets qui s’en sont échappés, en ont été rejetés ou se sont dissous dans les limbes de ce même marché (œuvres épuisées ou jamais publiés) et fonctionne de façon très similaire à celle des magasins gratuits, dans lesquels des produits sont donnés, perdant ainsi leur valeur marchande tout en conservant leur valeur d’usage.

UbuWeb est né il y a 15 ans. Au regard de ces années d’activité. Dans quelle mesure le projet a-t-il changé et quelles sont les futures évolutions envisageables…
Très peu de choses ont changé. UbuWeb fait à peu près la même chose qu’à ses débuts : il distribue gratuitement des œuvres d’avant-garde à n’importe qui à travers le monde. L’avenir suivra cette même ligne. Peut-être qu’une nouvelle section ouvrira ici et là, mais nous n’avons pas l’intention de changer quoi que ce soit.

UbuWeb, et ses archives en ligne, ne pourraient exister sans Internet. Le projet lui-même est né juste après l’avènement d’Internet. Comment s’est-il adapté aux énormes transformations subies par le web au cours de ces dernières années, notamment celles des méthodes de partage et d’accès à des idées et des connaissances?
UbuWeb n’a jamais été dépendant de serveurs Cloud. Nos serveurs sont stables et transparents, ils nous ont été donnés par une école d’art de la ville de Mexico. Par conséquent, quand vous téléchargez quelque chose depuis UbuWeb, vous obtenez un fichier AVI ou MP3 sans échec, sans temps d’attente, sans paiement, sans captchas, toutes ces choses qui ont fait la fortune de Megaupload. Je plains tous ces gens qui ont construit de merveilleux blogs MP3 en croyant que Megaupload serait toujours là. Je peux comprendre ce qui les a poussés à le faire, mais dans la culture commerciale, il y a toujours un prix à payer. Rien n’est gratuit. Et pour les utilisateurs de Megaupload la facture a fini par tomber.

Quels sont vos rapports avec les archives institutionnelles aux États-Unis et partout ailleurs dans le monde ? Vous êtes vous déjà rencontrés et avez-vous déjà essayé de connaître la manière dont ils vous perçoivent ? Envisagez-vous des collaborations ?
Les seules archives institutionnelles avec lesquelles nous collaborons aux États-Unis sont PennSound et l’Electronic Poetry Center de l’Université de Buffalo. L’EPC est né à la même époque que nous et nous sommes partenaires depuis ce temps-là. PennSound est vraiment le pendant légitime et autorisé d’UbuWeb : une grande partie de nos documents sont stockés sur les serveurs de PennSound. Le genre de travaux auxquels UbuWeb s’intéresse n’est partagé que par un public très limité, par conséquent il n’y a pas vraiment de compétition ou de confrontation; personne ne semble les vouloir à part nous.

Au cours des dernières années, les archives audiovisuelles institutionnelles se sont principalement intéressées aux méthodologies et aux stratégies Internet de mise en œuvre de systèmes pour diffuser leur patrimoine en ligne; de nombreux projets sont nés ralliant les institutions européennes et nord-américaines pour créer de nouveaux réseaux et de nouvelles plates-formes. Il est rare que le contenu y soit en libre accès (un compte institutionnel ou un accès VOD sont requis), certaines institutions (comme le NiMK à Amsterdam) ont même récemment facturé les utilisateurs pour le visionnage. UbuWeb est tout à l’opposé : il est né en tant qu’archive, directement sur Internet, avec du contenu partagé en accès libre et a comblé un grand vide dans la diffusion du patrimoine audiovisuel international. Par conséquent, quelles sont les similitudes et les différences entre UbuWeb et les archives institutionnelles au niveau du processus de partage de fichiers en ligne ?
Étant donné que nous sommes indépendants, nous ne devons plaire à personne d’autre que nous-mêmes. Nous improvisons au fur et à mesure. La seule chose sur laquelle nous insistons est le libre accès pour tous, et j’ignore pourquoi ces institutions ne font pas la même chose, mais nous refusons de mettre des pare-feu sur quoi que ce soit. PennSound, qui est géré par l’Université de Pennsylvanie est une exception : ils ont une philosophie identique à celle d’UbuWeb. UbuWeb croit au partage de la culture et s’oppose au droit d’auteur et à l’argent. Nous n’avons rien à gagner et rien à perdre. C’est ça la liberté. Et cette utopie est beaucoup plus intéressante que toutes les œuvres ou contenus que nous pouvons héberger. Il s’agit vraiment de la mission secrète d’UbuWeb.

Parlons un peu des utilisateurs d’UbuWeb. Comment la plate-forme génère et aborde le dialogue et avec les utilisateurs ? Est-ce qu’une véritable communauté existe par le biais de retours et commentaires ? Avez-Vous déjà envisagé des événements en mode hors connexion, à l’exportation de contenu Internet, au partage de contenu à travers des réunions physiques ?
UbuWeb n’est pas une démocratie, c’est ce qui fait sa grande qualité. Nous croyons qu’à un moment où tout est disponible, ce qui compte c’est le filtrage et la sélection. Ainsi, il est très difficile d’obtenir que vos œuvres soient présentées sur UbuWeb. Tout passe par un examen approfondi avant d’atterrir sur le site. Si vous voulez de la démocratie, allez sur archive.org ou YouTube. Si vous voulez du communautaire, allez sur Facebook. Nous n’avons rien à voir avec une communauté. Encore une fois, nous ne cherchons à plaire à personne à part nous-mêmes et ne cherchons pas vraiment à savoir ce que les gens pensent de notre site. Pourquoi se tourner vers des réunions physiques dont la portée est insuffisante et limitée alors que nous avons à disposition Internet, le meilleur système de distribution qui soit ? Tout semble très bien fonctionner ainsi.

La création de méthodologies de migration de contenus sonores et audiovisuels — du format analogique vers le numérique — est opérationnelle depuis longtemps dans l’archivage de l’art médiatique/basé sur le temps réel. Quelles méthodes utilise UbuWeb pour numériser le contenu audiovisuel et sonore et pourquoi ? Des laboratoires ou des institutions de référence s’occupent-ils de cette étape pour vous ?
À l’heure actuelle, nous remettons surtout en ligne des choses qui flottent autour de groupes de partage de fichiers privés auxquels seul un petit nombre de personnes a accès. Nous agissons comme des Robin des bois, volant un petit groupe pour redistribuer au plus grand nombre. Il y a tellement de choses qui circulent, qu’il ne nous est plus nécessaire de copier de nouveaux supports, ce qui amoindrit ainsi le besoin de laboratoires, d’institutions ou d’argent.

Est-ce que vous avez des retours ou des commentaires de la part d’artistes sur la manière dont vous fonctionnez ? De nombreux projets de conservation considèrent la relation avec les artistes comme essentielle…
Non. Les retours et commentaires de qui que ce soit, y compris des artistes, ne nous intéressent pas. Si quelqu’un n’aime pas se ce qui se trouve sur UbuWeb ou la façon dont on procède, il est libre d’aller voir ailleurs ou mieux encore, d’en faire une meilleure version, personne ne l’en empêche. Nous ne nous intéressons pas non plus à la conservation de manière sérieuse. Une véritable institution comme le MoMA devrait s’occuper de la conservation. Ubu est une excentricité, une archive non fiable, basée sur un caprice et une intuition, c’est un wunderkammer, un passe-temps, une farce. Sa beauté réside dans sa fragilité, son aspect éphémère. Un jour, le MoMA ou tout autre organe officiel fera une version correcte d’UbuWeb et nous mettra ainsi hors service. Nous attendons ce jour avec impatience.

UbuWeb peut être considéré comme un modèle en ligne durable, même sans financement institutionnel, sans argent pour son fonctionnement et sans publicité. Mais, comme vous l’avez dit à plusieurs reprises, UbuWeb pourrait disparaître pour un certain nombre de raisons : le FAI pourrait couper votre accès, le soutien des universités pourrait se tarir ou de nouvelles lois sur la violation du droit d’auteur pourraient s’imposer. Le site Web serait-il alors amené à disparaître ? Ce serait une énorme perte pour le patrimoine audiovisuel qui rendrait vain le travail des collaborateurs, des partisans et des bénévoles de ces dernières années. À cet égard, avez-vous envisagé une différente tactique de survie pour l’avenir ? Peut-être pourrait-elle inclure le web 2.0 ou les nouvelles stratégies économiques du crowdfunding et de mise en réseau ?
Je préfèrerais fermer UbuWeb plutôt que mendier de l’argent ou avoir recours à un Kickstarter. Ce sera le moment de dire « adieu, on s’est bien amusés tant que ça a duré ». Le web est éphémère et les choses disparaissent tout le temps. Profitez d’UbuWeb tant qu’il est là et assurez-vous de tout télécharger maintenant ou vous le regretterez lorsque le site aura disparu.

Justement, concernant les violations du droit d’auteur, UbuWeb existe dans ce que vous appelez « la zone grise » : le contenu que vous publiez se situe en dehors du marché commercial et le marché lui-même ne semble pas intéressé. UbuWeb semble être la preuve de la manière dont le droit d’auteur et la piraterie ne sont pas liés aux lois gouvernementales, mais plutôt aux intérêts économiques relatifs à la diffusion et à l’accès de la culture en ligne. Ainsi, comment travaillez-vous et vivez-vous à la frontière instable entre contrefaçon et violation du droit d’auteur d’une part et intérêt du marché de l’autre ? Pensez-vous qu’UbuWeb puisse être considéré comme une erreur de système des nouvelles spécificités du concept de droit d’auteur professé par les lois actuelles ?
Nous ne sommes pas sur une frontière parce qu’il n’y a pas de marché pour les choses que nous diffusons. Si vous essayez de les publier, et beaucoup de gens l’ont fait — vous vous rendrez compte que vous allez perdre de l’argent et devenir aigri. La nature de ces œuvres implique leur libre circulation. Il est important de noter qu’il existe différents types d’économies. Lady Gaga possède une entreprise de plusieurs milliards de dollars. Elle serait folle de ne pas la protéger. UbuWeb respecte ces autres types d’économie, c’est juste qu’ils n’ont rien à voir avec ce que nous faisons. UbuWeb, comme la majorité de l’art, est une aberration, une cour des miracles, une exception à la règle; il n’est pas la règle elle-même et ne devrait jamais être confondu avec elle.

Interview par Claudia D’Alonzo & Marco Mancuso
publié dans MCD #68, « La culture libre », sept. / nov. 2012

> http://www.ubuweb.com/

Les universitaires du début du XXe siècle spécialisés en sciences humaines, les critiques, conservateurs et commissaires d’expositions ont accès à une quantité de médias visuels sans précédent — beaucoup plus qu’il ne leur serait possible d’étudier, ni même simplement visualiser ou encore rechercher.

Manga / montage (close-ups). Lev Manovich & Jeremy Douglass, 2010.

Manga / montage (close-ups). Lev Manovich & Jeremy Douglass, 2010. Photo: D.R. / Courtesy Lev Manovich

Comment travailler avec de gigantesques collections d’images?
Une certain nombre de développements reliés entre eux, survenus entre 1990 et 2010 — la numérisation d’un grand nombre de collections de supports analogues, l’augmentation de contenu généré par les utilisateurs et les plateformes sociales, l’adoption du web en tant que plateforme de diffusion de médias et la globalisation qui a accru le nombre d’agents et d’institutions produisant des médias dans le monde entier — ont conduit à une augmentation exponentielle de la quantité de médias, tout en facilitant la possibilité de les trouver, les partager, les utiliser dans un but pédagogique et les rechercher. Des millions d’heures de programmes télévisés déjà numérisés par diverses bibliothèques nationales et musées des médias, quatre millions de pages de journaux américains de 1836 à 1922 numérisées (www.chroniclingamerica.loc.gov), 150 milliards d’instantanés de pages web capturées depuis 1996 (www.archive.org) et des trillons de vidéos sur YouTube ou de photos sur Facebook ainsi que bon nombre d’autres sources médiatiques attendent que l’on puise dans leur réserve.

Comment explorer de manière efficace ces gigantesques collections d’images numériques de manière à soulever des questions pertinentes ? Parmi les exemples de telles collections on peut citer les 167 000 images de la galerie Flickr d’Art Now, les 176 000 clichés de la Farm Security Administration/Office of War Information pris entre 1935 et 1944 et numérisés par la bibliothèque du Congrès américain. Comment travailler avec de tels ensembles d’images ? La méthode de base employée par les chercheurs des médias alors que le nombre d’éléments médiatiques était encore relativement faible — visualiser toutes les images ou les vidéos, isoler des tendances et les interpréter — ne fonctionne plus.

Si l’on considère la taille des collections contemporaines de médias, il tout est simplement impossible de visualiser leur contenu avant même de commencer à formuler des questions et hypothèses, voire de sélectionner des échantillons destinés à une analyse plus pointue. Même s’il on peut penser que cela provient des les limites de la vision et l’absorption de l’information humaines, à mon avis, le problème réside davantage dans le design actuel des interfaces. En effet, les interfaces populaires qui permettent d’accéder aux collections de médias numériques telles que les listes, les galeries d’images et les bandes d’images ne nous permettent pas de voir l’intégralité du contenu de la collection. D’ordinaire, ces interfaces ne montrent que quelques éléments dans un même temps, indépendamment du mode utilisé, que ce soit la navigation ou la recherche. L’impossibilité de visualiser une collection dans son ensemble nous empêche de comparer des séries d’images ou de vidéos, de dégager des tendances d’évolution sur une durée ou d’appréhender une partie de la collection au regard de l’ensemble.

Contre la recherche : comment chercher sans savoir ce que l’ont veut trouver.
Les technologies populaires d’accès aux médias des XIXe et XXe siècles — les lanternes magiques, projecteurs de films, Moviola et Steenbeck, tourne-disques, enregistreurs audio et vidéos, magnétoscopes, lecteurs DVD, etc. — avaient été conçues pour accéder à un seul média à la fois, à une vitesse limitée. Ceci allait de pair avec l’organisation de la diffusion des médias : magasins de disques et de vidéos, bibliothèques, diffuseurs télévision et radio mettaient seulement à disposition quelques éléments à la fois. Dans un même temps, les systèmes de classification hiérarchiques utilisés dans les catalogues et les salles de bibliothèques encourageaient les utilisateurs à accéder à une collection par le biais des schémas de classification figés, à l’inverse d’un parcours soumis au hasard. Quand vous consultiez un catalogue de fiches ou vous déplaciez physiquement d’étagère en étagère, vous suiviez une classification basée sur des sujets, avec des livres rangés par noms d’auteur à l’intérieur de chaque catégorie. Ainsi, bien qu’un seul livre puisse lui-même s’inscrire dans un mode aléatoire, ce n’était pas le cas pour les plus grandes structures dans lequel les livres et autres médias étaient rangés.

Ensemble, ces systèmes de classification et de diffusion amenaient les chercheurs en médias du XXe siècle à décider de l’objet médiatique à étudier. Un chercheur commençait habituellement par un individu spécifique (un réalisateur, un photographe, etc.) ou une catégorie spécifique (par exemple : Le cinéma expérimental américain des années 60). En procédant ainsi, il était dit d’un chercheur qu’il se déplaçait de haut en bas dans la hiérarchie de l’information d’un catalogue et choisissait ainsi un niveau spécifique comme sujet de son projet : cinéma > cinéma américain > cinéma américain expérimental > cinéma américain expérimental des années 60. Les plus téméraires ajoutaient de nouvelles ramifications à l’arbre des catégories, la plupart se satisfaisaient d’ajouter de simples feuilles (articles et ouvrages).

Malheureusement la nouvelle norme d’accès aux médias — la recherche sur ordinateur — ne nous éloigne pas de ce paradigme. L’interface de recherche est une page blanche qui attend que l’on y tape quelque chose. Avant de cliquer sur le bouton « recherche », vous devez décider des mots et expressions clés à rechercher. Alors, tandis que la recherche permet une accélération spectaculaire de l’accès à l’information, sa grande préconception (dont on peut sans doute retracer l’origine à la « récupération d’information » des années 50) est que vous connaissez en amont la collection digne d’une exploration plus poussée.

En d’autres termes : la recherche part du principe que vous souhaitez trouver une aiguille dans la botte de foin de l’information. Elle ne vous permet pas de voir la forme de la botte de foin en elle-même. Si c’était le cas, cela vous procurera d’autres idées sur les éléments à chercher, en dehors de l’aiguille à laquelle vous pensiez au départ. Par ailleurs, la recherche ne révèle pas la localisation de toutes les aiguilles. C’est-à-dire qu’elle ne montre pas la manière dont des données ou ensembles de données spécifiques sont liés à la globalité de ces données. L’utilisation de l’outil de recherche s’apparente à la vision rapprochée d’une peinture pointilliste où l’on peut seulement percevoir les points de couleur sans pouvoir zoomer en arrière pour dégager des formes.

Kingdom Hearts II (videogame transversal). William Huber & Lev Manovich, 2009

Kingdom Hearts II (videogame transversal). William Huber & Lev Manovich, 2009 / Kingdom Hearts II (Square-Enix Inc., 2005). Photo: D.R.

Le paradigme de l’hypertexte qui définit le World Wide Web est également limité : il permet la navigation à travers des pages dans la globalité du web en fonction de liens définis par des tiers, à l’inverse d’un mouvement libre dans ses directions. Ceci corrobore la vision originale de l’hypertexte telle que l’avait définie Vannevar Bush en 1945 : une manière pour le chercheur de créer des traces à travers l’immensité des informations scientifiques permettant à d’autres de retrouver plus tard ces mêmes traces.

Sur la base de mon étude sur quelques unes des plus grandes collection de médias en ligne disponibles aujourd’hui telles qu’europeana.org, archive.org, les collections numériques de la bibliothèque du Congrès américain et artstor.org, je distingue une interface type qui propose aux utilisateurs de naviguer de manière linéaire à travers une collection ou par le biais de catégories, de tags thématiques et d’effectuer une recherche en utilisant des métadonnées enregistrées pour chaque objet médiatique. Dans chacun des cas, les catégories, les tags et les métadonnées ont été insérés par les archivistes (aucun des sites que j’ai visité n’offrait des tags générés par les utilisateurs). De ce fait, lorsqu’un internaute accède aux collections institutionnelles de médias par le biais de leurs sites, il peut uniquement se déplacer selon un nombre de trajectoires déterminées par la taxinomie de la collection et les types de métadonnées employées pour décrire les données.

Par contraste, lorsqu’on observe une scène de la vie réelle en direct, avec ses yeux, on peut regarder dans tous les sens. Ceci permet de distinguer rapidement divers schémas, structures et liens. Imaginez, par exemple, que vous tourniez au coin d’une rue et que vous ayez dans votre champ de vision une place ouverte avec des passants, des cafés, des voitures, des arbres, des panneaux publicitaires, des vitrines de magasins et autres éléments… Vous pourriez rapidement détecter et suivre une multitude de motifs qui changent de manière dynamique sur la base d’une information visuelle et sémantique : des voitures se déplaçant le long de lignes parallèles, des maisons peintes de couleur similaire, des gens qui suivent le cours de leur trajectoire et d’autres en train de parler, des visages étranges, des vitrines qui se démarquent du reste, etc.

Nous avons besoin de techniques similaires qui nous permettent d’observer de vastes « univers de médias » et de détecter rapidement les tendances pertinentes. Ces techniques se doivent d’opérer à une vitesse bien supérieure à celle du visionnage (des médias basé sur le temps réel). Alternativement, elles doivent utiliser des images fixes. Je devrais pouvoir visualiser une information importante concernant un million de photos dans le temps habituellement requis pour visionner une seule image. Ces techniques se doivent de compresser les gigantesques univers de médias en « paysages » de médias plus petits et observables, compatibles avec la capacité humaine à traiter l’information. En même temps, elles doivent pouvoir conserver assez de détails issus des images, des vidéos, des sons ou des expériences interactives pour permettre une étude des tendances subtils au sein des données.

Visualisation des médias
Les limites des interfaces type des collections de médias en ligne valent aussi pour les interfaces des bureaux d’ordinateurs et des applications de téléphones portables qui permettent de visionner, cataloguer et sélectionner tout comme les sites qui hébergent des médias. Il en va de même pour les sites de collection spécialisés, les gestionnaires de médias et les sites d’hébergement permettant aux utilisateurs de naviguer et de rechercher des images et des vidéos et d’afficher les résultats dans différents formats. Leur utilité en tant qu’outils de recherche reste cependant très limitée. Des applications d’ordinateurs telles qu’iPhoto, Picasa, Adobe Bridge et des sites de partage d’images comme Flickr et Photobucket ne peuvent montrer que des images dans un nombre limité de formats fixes — généralement une grille à deux dimensions, une bande linéaire, un diaporama et, dans certains cas, une vue cartographiée (des photos superposées sur la carte du monde). Les images sont habituellement classées par date de téléchargement; pour afficher des photos dans un ordre différent, l’utilisateur doit passer du temps à ajouter de nouvelles métadonnées à toutes les images. Il ne peut organiser les images automatiquement selon leurs propriétés visuelles ou leurs relations sémantiques, ni comparer des collections susceptibles de contenir des centaines de milliers d’images ajoutées les unes aux autres, ni utiliser des techniques de visualisation d’informations afin d’explorer les tendances à travers des séries d’images.

Les outils graphiques et de visualisation — Google Docs Excel, Tableau, Many Eyes et autres logiciels graphiques et feuilles de calcul — offrent un éventail de techniques de visualisation conçu pour montrer des données. Mais ces outils ont eux aussi leurs limites. Un principe clé qui sous-tend la création de graphiques et de visualisation de l’information est la représentation de données à l’aide de points, de barres, de lignes et autres représentations archaïques Ce principe est resté immuable entre les premiers graphiques statistiques du début du XIXe siècle et les logiciels contemporains de visualisation interactive, qui peuvent opérer avec de grands ensembles de données. Bien que ces représentations indiquent clairement les relations dans un ensemble de données, elles cachent aussi les objets derrière les données de l’utilisateur. S’il est parfaitement adapté à de nombreux types de données, dans le cas d’images et de vidéos, ce modèle devient un sérieux obstacle. Par exemple, un diagramme 2D montrant une répartition des notes dans une classe avec chaque élève représenté par un point remplit son objectif, mais l »utilisation du même type de graphique pour représenter les tendances stylistiques au cours de la carrière d’un artiste à travers des points est plus limitée si nous ne pouvons visualiser les œuvres d’art.

Depuis 2008, mon projet Software Studies Initiative a mis au point des techniques visuelles qui associent la force des applications de visionnage à celle des applications de graphisme et de visualisation. Comme ces derniers, elles génèrent des graphiques qui montrent les relations et les tendances dans un groupe de données. Cependant, alors que logiciels qui créent des diagrammes peuvent seulement afficher les données sous forme de points, de lignes ou autres graphismes archaïques, notre logiciel peut montrer toutes les images d’une collection superposées sur un graphique. Nous appelons cette méthode la visualisation de médias (ou mediavis).

Mapping Time. Jeremy Douglass & Lev Manovich, 2009. Couvertures des différentes éditions du Time magazine par ordre de publication de 1923 à l'été 2009.

Mapping Time. Jeremy Douglass & Lev Manovich, 2009. Couvertures des différentes éditions du Time magazine par ordre de publication de 1923 à l’été 2009. Nombre de couvertures utilisées au total : 4535.

Une visualisation de l’information type consiste à d’abord traduire le monde en nombres et ensuite à visualiser les relations entre ces nombres. En revanche, la visualisation des médias se traduit par un ensemble d’images dans une représentation visuelle, qui peut révéler des tendances parmi les images. En bref, les images sont converties en images. Les deux visualisations de la même série de données exposées ci-après illustrent les différences entre infovis (visualisation d’informations) et mediavis (visualisation de médias). Les deux visualisations utilisent la technique familière du tracé de dispersion de points. Cependant la deuxième ajoute des images sur les points. La première visualisation montre la distribution des données, la seconde nous permet de comprendre ce qui se trouve derrière les points.

Les données utilisées pour ces visualisations sont 1.074.790 pages de mangas (bande dessinée japonaise). La première visualisation représente chaque page par un point. La deuxième visualisation utilise des copies de pages réduites à la place des points. Pour produire ces visualisations, nous avons mesuré un certain nombre de caractéristiques visuelles de chaque page: le contraste, le nombre de lignes, les propriétés de la texture, etc. Nous utilisons ensuite une des mesures pour placer les données sur l’axe des X, alors qu’une autre mesure est utilisée pour placer des données sur l’axe des Y. Cette méthode nous permet d’organiser les images selon leurs caractéristiques visuelles par rapport à deux dimensions.

Dans cette visualisation, les pages de la partie inférieure de la visualisation sont les plus graphiques et ont le moins de détails et de texture. Les pages en haut à droite possèdent une grande quantité de détail et de texture. Les pages au contraste plus élevé sont sur la droite, tandis que les pages au contraste le plus faible sont sur la gauche. Entre ces quatre extrêmes, nous trouvons chaque variation stylistique possible. Pour rendre tout cela plus facile à voir, nous avons inclus deux gros plans des parties inférieures et supérieures.

Que nous enseigne cette visualisation ? Elle suggère que notre concept fondamental de «style» n’est pas forcément approprié, nous considérons ensuite les grands ensembles de données culturelles. Le concept présuppose que nous puissions diviser d’un ensemble d’artéfacts culturels en un petit nombre de catégories distinctes. Dans le cas de notre ensemble d’un million de pages, nous constatons que les variations graphiques sont quasiment infinies. Si nous essayions de diviser cet espace en catégories stylistiques distinctes, une telle tentative deviendrait arbitraire. La visualisation distingue également les choix graphiques les plus couramment utilisés par les artistes de manga (dans la partie centrale du « nuage » de pages) et ceux semble-t-il plus rarement utilisés (en bas et à gauche).

Nos techniques de visualisation de médias peuvent être utilisés indépendamment ou en combinaison avec l’étude de l’image numérique. L’étude de l’image numérique est conceptuellement semblable à l’analyse automatique de textes déjà largement utilisée dans les sciences humaines numériques. L’analyse de texte consiste à extraire automatiquement différentes statistiques du contenu de chaque texte au sein d’une collection, comme les fréquences d’utilisation, la longueur et la position des mots, la longueur des phrases, les fréquences d’utilisation des noms et des verbes etc. Ces statistiques (appelés « caractéristiques » en sciences de l’informatique) sont ensuite utilisées pour étudier les tendances dans un texte unique et les relations entre des genres littéraires, des textes, etc.

De même, nous pouvons utiliser le traitement de l’image numérique pour calculer les statistiques de diverses propriétés visuelles des images : la luminosité et la saturation moyenne, le nombre et les propriétés des formes, le nombre d’arêtes et de leurs orientations, les couleurs-clés et ainsi de suite. Ces fonctionnalités peuvent ensuite être utilisées pour des études similaires — par exemple, l’analyse des différences visuelles entre les nouvelles photographies dans plusieurs magazines ou entre les photographies de presse de différents pays, les changements de style visuel au cours de la carrière d’un photographe ou l’évolution de la photographie de presse en général au cours du XXe siècle. Nous pouvons également les utiliser de manière plus élémentaire — pour l’exploration initiale de n’importe quelle grande collection d’images.

 

Lev Manovich
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

 

Lev Manovich est un théoricien de l’étude des médias et des sciences humaines numériques. Il est professeur au département des arts visuels de l’Université de Californie – San Diego (UCSD) où il enseigne l’art numérique, l’histoire et la théorie de la culture numérique. Il dirige également le Software Studies Initiative au California Institute for Telecommunications and Information Technology (CALIT2). Fondé en 2007, ce laboratoire mène des recherches sur un nouveau paradigme d' »analytiques culturel » (cultural analytics); terme inventé par Manovich pour désigner l’utilisation de méthodes de calcul relatives à l’analyse d’ensembles massifs de données et de flux culturels. L’objectif du Software Studies Initiative est de développer des techniques et des logiciels libres, en les appliquant progressivement à des groupes d’image et de vidéo de plus en plus grands afin de mieux comprendre le fonctionnement de la culture.

l’architecte et le virage collaboratif

Daniel Dendra est un architecte et chercheur basé à Berlin. Il étudie les effets perturbateurs des cultures, pratiques et méthodologies de l’open source dans le design contemporain, avec un intérêt particulier pour l’organisation de la pratique architecturale et les nouvelles stratégies de planification des futures mégapoles. Il représente ainsi une réaction dynamique au défi contemporain du design. En 2007, Dendra a fondé anOtherArchitect (aA), un studio de design primé qui se concentre sur des solutions de design durable dans l’environnement bâti. Avant aA, il a travaillé dans divers bureaux d’architectes à Londres, Moscou, Düsseldorf et Rotterdam, comme l’AMO de Rem Koolhaas, Zaha Hadid Architects. De plus, ces dernières années, Dendra a cofondé plusieurs initiatives cruciales dans le domaine du design collaboratif, telles que le réseau de design Open Source OpenSimSim, le prix Cloudscap.es qui récompense des propositions de design durable, la plateforme de design post-tsunami OpenJapan et Future City Lab, l’initiative open-source pour un avenir durable d’ici à 2050.

OpenPod (modèle) @ 12ème Biennale d'Architecture de Venise

OpenPod (modèle) @ 12ème Biennale d’Architecture de Venise. Photo: © anOtherArchitect.

Il est communément admis que la réalisation de type ascendant est une caractéristique majeure de l’architecture. Dans ce domaine cependant, l’Open Source a remis en cause ce principe fondateur en générant des processus de design plus horizontaux : il semblerait que cette nouvelle approche soit mieux adaptée aux contextes informels urbains. À la lumière de votre expérience, pensez-vous qu’une approche open source soit applicable au processus de construction occidental sur-réglementé ? Et, dans l’affirmative, comment procéder ?
Je pense qu’en Occident en particulier où nous vivons depuis longtemps dans un monde sur-réglementé nous avons pu nous démarquer de ces modèles stricts sans trop de risques. Si vous prenez Berlin par exemple, c’est une ville où des processus de type ascendants non-réglementés et non-planifiés ont formé une nouvelle culture qui a, somme toute, transformé le paysage urbain et créé une identité neuve. La municipalité a conscience des possibilités d’une plus grande souplesse dans l’application de la réglementation en vigueur et a soutenu un processus plus dynamique, tourné vers la croissance urbaine. Peu importe si l’on se place du point de vue de l’Occident, de l’Est, du Sud ou du Nord, à travers le monde, les gens sont généralement fatigués de l’absence de transparence des processus. Ainsi, un processus plus ascendant, ou « horizontal » comme vous le qualifiez, est amené à s’imposer comme l’évolution à grande échelle du futur.

D’OpenSimSim à FutureCityLab, vous avez généré, avec votre réseau, plusieurs projets axés sur la connaissance ouverte. Vos wikies et plates-formes de partage tendent à définir la norme de pointe, en termes de relations entre la source, l’architecture ouverte et la planification. Ces projets font intervenir des consultants renommés dans tous les domaines de l’architecture et de l’ingénierie. Pourriez-vous définir le cadre général dans lequel votre réseau s’inscrit et la vision opérationnelle qui le sous-tend ?
Nous expérimentons avec des plateformes et des systèmes différents. Pour Future City Lab, mais aussi OpenJapan, nous avons utilisé un wiki auto-développé sur Drupal. Malheureusement, nous avons subi d’importants problèmes de spam et actuellement nous essayons d’intégrer les médias wiki à nos propres plates-formes. La même chose vaut pour n’importe quel autre système. Puisque tous nos projets sont à but non-lucratif, nous dépendons actuellement de l’aide d’autres communautés. Jusqu’à présent, nous avons bénéficié du soutien de la communauté allemande de Drupal, mais nous envisageons également la participation d’autres développeurs.

Grâce à votre travail, le scénario émergeant implique des designers engagés dans la création de savoirs et la mise en place de réseaux plutôt que dans le design architectural lui-même. Dans un tel contexte, où les idées et les projets peuvent être transformés, améliorés et continuellement remaniés, quelle valeur attribuez-vous à la paternité du designer ? Si l’on cite Mario Carpo, est-ce que la « propriété du design architectural » traditionnelle est vouée au même destin que l’industrie musicale, les quotidiens imprimés, le fax ou tout ce que l’on pourrait citer comme étant devenu obsolète à l’ère du numérique ?
La technologie numérique (mais aussi ce que l’on appelle le moment-(inter)NET) a transformé un grand nombre de modèles commerciaux et d’industries fermement établis. La même chose se produira tôt ou tard, à la fois pour l’architecture et les villes, ce n’est qu’une question de temps. L’émergence de fab-labs et de bureaux de prototypage rapide permettra d’accélérer plus encore ce processus. Dans le même temps, nous ne devrions pas nous inquiéter de perdre nos clients ou notre travail, mais devrions être plus progressistes que l’industrie de la musique et considérer les récents développements comme une opportunité. Le système en place, basé sur des industries de la concurrence et de la corruption n’encourage pas à repousser les limites de notre profession.
Au final, vous gagnez autant si vous vendez votre design 20.000 euros à un client ou 5 euros à 4.000 clients. Avec plus d’un milliard d’utilisateurs d’Internet aujourd’hui, et plus de 3 milliards au cours des deux prochaines années, ces modèles d’entreprise sont réalistes. Il ne faut pas oublier qu’en tant qu’architectes et urbanistes nous avons une tâche colossale : nous devons créer des villes et des bâtiments avec zéro émission de CO2 d’ici à 2050. Il ne reste pas beaucoup de temps si l’on considère qu’à l’heure actuelle il n’existe aucune solution et que le délai de mise en œuvre du design urbain est de 20 ans en moyenne.
De plus en plus, les consommateurs exigent de nouveaux procédés. Avec Magnezit, une grande entreprise de matériaux réfractaires russe, nous développons actuellement un nouveau design architectural qui fait pleinement usage du co-working (co-travail). Il s’agit d’une occasion unique pour mettre en application à grande échelle des idées développées dans nos projets de recherche.

Hedronics Chair @ Biennale d'Architecture de Moscou, 2011

Hedronics Chair @ Biennale d’Architecture de Moscou, 2011. Photo: © anOtherArchitect.

Les phénomènes de collaboration actuels présentent des méthodes d’exploitation et des approches contrastées. D’une part, des plates-formes hyper-pointues d’ingénierie du design et de construction (comme celle mise en place par Gehry Technologies pour la Fondation Louis Vuitton à Paris), permettent à un grand nombre de techniciens dispersés géographiquement de travailler en temps réel et de manière collaborative sur le Building Information Model. Dans cette chaîne numérique de pointe, la responsabilité de la prise de décision est de plus en plus perçue comme le point fort d’une application logicielle spécifique capable de gérer un niveau élevé de complexité. D’autre part, agir et élaborer un design en collaboration est plutôt généralement envisagé comme un moyen de permuter les moments de prise de décision et d’améliorer l’accessibilité globale des personnes au sein du processus de design. Que pensez-vous de ces deux aspects contrastés de la collaboration ? Vont-ils finir par converger ?
J’espère qu’ils vont converger à un moment donné. Bien sûr, les projets à gros budgets comme celui que vous mentionnez ont suffisamment de ressources pour investir dans de nouveaux moyens de collaboration et de prise de décision, puisque, sur le long terme, cela représente une économie budgétaire pour le projet. Si l’on considère qu’il s’agit là de la Formule 1 de l’architecture, j’espère que ces technologies vont peu à peu descendre jusqu’au « marché de masse « . Mais nous devons admettre que l’architecture et les architectes ne sont pas très versés dans les nouvelles technologies. Il suffit de regarder les bâtiments qui gagnent les concours de nos jours et les outils évidents que la plupart des architectes utilisent. Fondamentalement, de tels marchés grand public n’existent pas. Je ne pense pas qu’il soit nécessaire d’attendre de nouvelles normes industrielles ou de s’appuyer sur des bureaux établis.
Notre seul espoir réside dans de nouvelles générations d’architectes désireux de collaborer et prêts à partager leurs connaissances. Le développement de nouveaux outils et de nouvelles plates-formes doit venir de l’intérieur même de cette génération (tout comme cela s’est produit pour l’Internet et l’ensemble de ses plates-formes). La nouvelle génération doit comprendre qu’elle a là une grande occasion d’échapper à la norme actuelle toute tracée de notre profession : cessez de participer à des concours, commencez à participer à des collaborations. Il y a suffisamment d’emplois à pourvoir : actuellement seulement 2% des bâtiments à travers le monde sont conçus par des architectes. Arrêtez d’être en concurrence avec les pratiques établies : découvrez de nouveaux modèles commerciaux, car un grand marché vous attend. Environ 20% du PIB de chaque pays est constitué par le secteur du bâtiment. Nous n’avons pas besoin d’un autre Foster ou d’une autre Hadid — nous avons besoin d’un Zuckerberg de l’architecture, de quelqu’un qui lance un nouveau développement et réinvestisse dans le système. Je suis sûr que nous sommes sur le point de voir une révolution-internet de nos villes sous leur forme physique, ce qui rendra la survie de certains dinosaures laborieuse.

propos recueillis par Sabine Barcucci
publié dans MCD #68, « La culture du libre », sept. / nov. 2012

the open future
- bilingue (english / french)
septembre / novembre 2012

 

> Éditorial :

La liberté libre *

Partage, collaboration, participation, transparence… La révolution numérique a permis l’émergence d’une « culture libre » selon le titre du livre de Lawrence Lessig, Free Culture**. Le point de départ est la création du mouvement du logiciel libre par Richard Stallman qui déclarait : Je puis expliquer la base philosophique du logiciel libre en trois mots : liberté, égalité, fraternité. Liberté, parce que les utilisateurs sont libres. Égalité, parce qu’ils disposent tous des mêmes libertés. Fraternité, parce que nous encourageons chacun à coopérer dans la communauté.

À partir du développement des logiciels libres, les principes des licences libres ont été appliqués dans les domaines artistiques, scientifiques, pédagogiques, etc. Il existe aujourd’hui des communautés qui partagent un même ensemble de valeurs autour de l’art libre, de la science ouverte, de l’architecture open source, du design collaboratif, de l’Internet libre et ouvert.

Pour faire le point sur ces pratiques culturelles et sociales, MCD a invité Marco Mancuso, critique, chercheur et commissaire, et son équipe de Digicult en Italie, à réaliser ce numéro The Open Future. Ouverture des données, sciences DIY (à faire soi-même), immeubles construits sous licence Creative Commons, musiques libres, BioHacking, innovation ouverte… le panorama que vous allez découvrir ouvre le champ des possibles au-delà du débat sur les droits d’auteur et la propriété intellectuelle. L’ouverture numérique du monde peut être synonyme de partage des savoirs, de conscience collective et de liberté.

Anne-Cécile Worms – Directrice de la publication

* Arthur Rimbaud, « Je m’entête affreusement à adorer la liberté libre », Lettre à Georges Izambard (2 novembre 1870).
** Lawrence Lessig, « Free Culture, how big media uses technology and the law to lock down culture and control creativity », Penguin USA, 2004.

> Sommaire :
Préambule par Bertram Niessen
Présentation Digicult et des auteurs de ce numéro
Internet & société
de la créativité individuelle à l’innovation collective
Vers une masse créative ?
Médias numériques & nouvelles formes d’activisme : interviews de Michel Bauwens et Geert Lovink
Le paradoxe du droit d’auteur : interview de Philippe Aigrain
L’audiovisuel sur le net
Comment visualiser 1 million d’images ?
UbuWeb, archives vidéo à l’ère numérique : interview de Kenneth Goldsmith
Si les choses pouvaient parler : conversation avec Hugues Sweeney
Sons et musique en ouverture
Musique post-apocalyptique. qu’avons-nous appris?
Dissection de l’auteur : Mattin
Déconstruction sonore : Julien Ottavi / Apo33
Design & architecture
rêves et dérives dans l’architecture numérique
Matérialité ajustable
L’architecte et le virage collaboratif : interview de Daniel Dendra
Soupe digitale : dialogue avec Marc Fornes de Theverymanytm
L’art d’une science libre et ouverte
Biotechnologie d’intérêt public
Hackteria : interview de Marc Dusseiller
Art, science, politique et biologie : du bio-hacking chez La Paillasse
Carte blanche à Antoine Moreau

> Remerciements :
Nous remercions particulièrement Jean-Christophe Théobalt pour le soutien que le Ministère de la Culture et de la Communication apporte à cette publication, Marco Mancuso et son équipe de Digicult, ainsi que tous les annonceurs et partenaires de l’association Musiques & Cultures Digitales.