Introduction : Faire avec le numérique ?
Manipuler, ouvrir et lire un livre sont des actes qui engendrent des sensations et des expériences multiples. L’une d’entre elles, probablement la plus inconsciente, concerne la matérialité du livre, qu’il soit imprimé ou numérique : le codex ou l’ebook renferme l’aboutissement de plusieurs dizaines de siècles de recherche et de développement. Ouvrir un livre est donc l’occasion de prendre la mesure de cette prouesse technologique que sont quelques cahiers reliés ou quelques fichiers compressés. Le livre est un moyen d’interroger le rapport que nous entretenons avec la technique, la façon de concevoir et de fabriquer une publication est révélatrice de notre positionnement avec les machines et les programmes. L’informatisation des métiers du livre ainsi que l’arrivée du livre numérique et des nouveaux modes de diffusion de l’écrit modifient la manière d’élaborer des livres ou plus globalement des publications. Conception, fabrication, production, diffusion : l’influence du numérique sur le livre nous amène à devoir nous questionner sur la chaîne de publication et sur ce qui la compose. D’un modèle linéaire nous pouvons envisager un système modulaire, et ainsi remettre en cause des approches basées sur des logiciels. En d’autres termes, comment éditer avec le numérique1 ?
Informatisation des métiers du livre
Les métiers du livre – auteurs, édition, distribution/diffusion, librairie et bibliothèque – connaissent différentes phases d’informatisation depuis les années 1970, portées par un marché économique en transformation (Longhi & Rochhia, 2014). Que ce soit les systèmes d’information des bibliothèques, puis les logiciels de traitement de texte et de publication assistée par ordinateur des auteurs et des éditeurs, et les infrastructures de diffusion de l’information pour la distribution/diffusion et la librairie, les activités des métiers du livre ont été bouleversées avec la même force que l’arrivée de l’imprimerie à caractères mobiles. Les bibliothèques ont été pionnières avec la mise en place de catalogues permettant de gérer le classement et l’organisation des collections ; les maisons d’édition, quant à elles, ont commencé à utiliser des ordinateurs et des logiciels à partir du début des années 1980. Les premiers traitements de texte et logiciels de publication assistée par ordinateur ont créé de nouvelles possibilités pour les éditeurs et les auteurs : temps de conception réduit, facilité de modification des maquettes, prévisualisation des compositions et mutualisation des efforts avec des schémas reproductibles. Aujourd’hui deux logiciels semblent disposer d’une position hégémonique : le traitement de texte Microsoft Word et le logiciel de publication assistée par ordinateur Adobe InDesign sont les deux outils professionnels les plus répandus dans le domaine de la publication, qu’il s’agisse d’imprimé ou de numérique. Leurs fonctionnalités correspondent à des besoins identifiés à travers le prisme de l’objet imprimé, le livre numérique numérique est l’occasion de réviser le paradigme imposé par ces logiciels.
Essor du livre numérique
Le livre numérique est une vieille histoire : le premier specimen a été créé en 1971 par Michael Hart dans un objectif de diffusion d’un texte majeur via les premiers réseaux informatiques (Lebert, 2016, chap. 1). La version numérique de The Declaration of Independence of the United States of America par Thomas Jefferson, au format texte et sans mise en forme, est également le point de départ du projet Gutenberg (http://www.gutenberg.org/ebooks/1). Ce n’est qu’à la moitié des années 2000 que le livre numérique est popularisé : avec la standardisation du format EPUB en 2015, la disponibilité d’un support de lecture à encre électronique bon marché – aussi appelé liseuse – en 2016, et enfin avec la commercialisation d’un catalogue numérique également en 2016.
Le livre numérique reste majoritairement homothétique – les enrichissements sont rares (Benhamou, 2014, p. 148) –, et il est souvent produit par un sous-traitant après la version imprimée, générant potentiellement une dette technique (Faucilhon, 2016). Si l’ebook représente une nouvelle économie fragile – la part des ventes numériques dans le chiffre d’affaires des éditeurs peine à atteindre les 10% (« Les chiffres du numérique », 2018) –, il ébranle toutefois les principes de l’édition. Le contenu liquide peut être reformaté par le lecteur, remettant en cause les choix typographiques de l’éditeur, comme le souligne Philippe Millot :
Avec le texte au format numérique, à la mise en page liquide, chacun peut changer les paramètres élémentaires. Il faudrait être typographe soi-même pour lire son livre savamment et ne pas jeter plus de mille ans de connaissance de mise en forme du texte.
(Renou-Nativel, 2012)
Aussi, la dimension de flux concerne autant le livre que sa diffusion sur Internet sur des plates-formes diverses, et la fabrication des EPUB repose sur des technologies empruntées au Web – notamment les langages HTML et CSS (Vitali Rosati & Eberle-Sinatra, 2014). Au-delà des nouvelles possibilités de diffusion il y a en creux des changements plus profonds, comme la manière de concevoir un livre : le texte n’est plus forcément composé page à page, mais doit être considéré comme un flux (Tangaro, 2017) dont certains comportements peuvent être anticipés. Par ailleurs l’utilisation de formats ouverts et de standards qu’implique l’EPUB invite ceux qui fabriquent les livres à envisager de nouvelles façons de faire et ainsi à modifier leur chaîne de publication.
Chaîne de publication
Par chaîne de publication nous entendons l’ensemble des méthodes et des outils permettant de concevoir, fabriquer, produire et diffuser un livre ou une publication. Une chaîne de publication réunit des logiciels propres à la gestion du texte et des images, mais aussi les différents rôles d’un processus éditorial que sont l’auteur, l’éditeur, le correcteur, le graphiste ou l’imprimeur. Une chaîne de publication, également appelée chaîne d’édition ou chaîne éditoriale (Arribe, 2014, p. 206), a pour objectif de gérer des contenus depuis le manuscrit d’un auteur jusqu’à la publication imprimée ou numérique d’un ouvrage, en passant par les phases de structuration, de relecture et de mise en forme. Cette chaîne, ce workflow, est le noyau d’une maison d’édition pour manier des textes et leur donner vie sous forme de livre. Classiquement une chaîne de publication comprend un traitement de texte et un logiciel de publication assistée par ordinateur, certains domaines éditoriaux comme l’édition scientifique ont des outils pour structurer plus finement le contenu et pour générer des formats spécifiques. Identifier les éléments d’une chaîne d’édition est une étape nécessaire pour pouvoir la reconsidérer et ainsi formuler un nouveau modèle.
Interroger la façon de produire des livres
L’informatisation des métiers du livre et le développement du livre numérique sont deux phénomènes qui conduisent à repenser la manière de fabriquer des publications : il ne s’agit plus seulement de réaliser des ouvrages imprimés avec des logiciels et de créer des équivalents dématérialisés, mais de prendre en compte la dimension numérique dès la conception et la fabrication, et jusque dans les formes proposées. Si les outils utilisés dans l’édition sont vus comme de simples exécutants de tâches précises et complexes, l’ebook a introduit une nouvelle dimension, invitant celui ou celle qui compose le livre à entrer au cœur du contenu, et à concevoir de nouvelles formes.
Si l’informatique a longtemps été considérée comme au service d’un objet imprimé, comment, aujourd’hui, éditer avec le numérique ?
Si le modèle linéaire et relativement figé des chaînes d’édition classiques est pertinent pour la conception et la production d’ouvrages imprimés, ne faut-il pas le revisiter pour des publications numériques en s’inspirant des méthodes et des technologies utilisées dans le développement web ?
L’un des objectifs de cette conceptualisation d’un projet non conventionnel est de donner une plus grande maîtrise à celles et ceux qui produisent des textes et des publications : auteurs et éditeurs en premier lieu, notamment dans le domaine de l’édition savante (Vitali-Rosati, 2016), mais plus globalement pour les ouvrages dits de non-fiction comme les essais ou les manuels. Et il y a urgence.
Avec le numérique
Afin d’appréhender un nouveau modèle de fabrication des livres ou des publications, ce mémoire s’articule autour de trois grandes parties qui constituent également une méthodologie à trois pans : l’analyse de trois textes, l’analyse de trois initiatives originales et la formalisation d’une proposition inédite.
Avant de découvrir des cas dans lesquels le numérique prend une place prépondérante pour réaliser des publications, nous devons exposer les hybridations de l’imprimé et du numérique, critiquer un usage solutionniste de la technologie et présenter un nouveau rapport à la technique. Cette première partie constitue le premier volet de notre méthodologie, et entend nourrir les propositions de la troisième partie. L’ouvrage d’Alessandro Ludovico, Post-Digital Print : la mutation de l’édition depuis 1894, explore les nombreux exemples en œuvre depuis la fin du dix-neuvième siècle en matière d’édition hybride. Pour tout résoudre, cliquez ici : l’aberration du solutionnisme technologique d’Evgeny Morozov met à mal les recours parfois hâtifs de la technologie pour améliorer le monde. Enfin, la thèse de Gilbert Simondon publiée en 1958, Du mode d’existence des objets techniques, ouvre une nouvelle perspective quant au positionnement de l’homme par rapport aux machines – et par extension, aux programmes informatiques.
Le numérique est bien souvent une version supplémentaire venant s’ajouter au traditionnel ouvrage papier, plutôt qu’une nouvelle dimension autant pour l’accès au texte que pour sa production. Certaines structures d’édition ont fait évoluer leur chaîne pour prendre en compte d’abord la version numérique, se passant du même coup de logiciels dits classiques pour l’élaboration d’ouvrages imprimés. Cette seconde partie, également second versant de notre méthodologie, est un outil indispensable pour parvenir à extraire les éléments d’un nouvel archétype. Nous analysons les approches de trois structures d’édition pour exposer et comprendre leur fonctionnement : les différents outils développés par l’éditeur O’Reilly Media, la chaîne de publication nativement numérique Quire de Getty Publications, et la revue académique Distill.
Dans un troisième temps, et à partir des textes étudiés et des cas analysés, nous esquissons les principes d’un modèle alternatif : un système modulaire de publication. Nous décortiquons tout d’abord les différentes étapes qui composent une chaîne d’édition : écriture, structuration, validation, mise en forme et génération des formats. Nous exposons ensuite trois principes à partir desquels un système modulaire de publication peut être mis en place : interopérabilité, modularité et multiformité. En filigrane et à partir des analyses de texte, nous interrogeons notre rapport à la technique.
La technique est un bien social à investir d’urgence et à tout prix. […]
Qu’elle soit un langage, un objet ou un milieu, la technique est un bien social parce qu’elle est l’une des composantes indispensables à l’existence et à l’évolution des liens sociaux.
(Gelgon, 2018)
Un mémoire modulaire
La construction de ce mémoire est progressive et originale : à la suite d’un article introductif publié en 2017 (Fauchié, 2017), les différentes parties ont été rédigées afin de pouvoir être lues indépendamment. Les commentaires de texte et les analyses de cas, traditionnellement placés en annexe, font partie intégrante du mémoire. Celui-ci est un agencement de textes autonomes suivant un fil rouge commun, plusieurs sens de lecture sont possibles.
Ce mémoire est l’occasion d’appliquer, pour cette modeste publication, les principes exposés ici : l’interopérabilité, la modularité et la multiformité. Les sources sont dans un format interopérable et sont versionnées, permettant d’envisager différents traitements du texte, mais aussi pour faciliter les éventuelles interventions extérieures2. Ce texte est disponible en version numérique, et plus particulièrement sous la forme d’un site web, mais également en version imprimée3.
Enfin, un certain nombre de travaux ont été réalisés en parallèle de ce mémoire – articles, communications lors de colloques et collaborations diverses : ces initiatives satellites permettent de structurer et d’alimenter un travail de recherche qui a débuté en mars 2017, ouvrant également des opportunités de collaboration avec des personnes qui produisent des publications avec le numérique4.
La lecture de Vers un système modulaire de publication : éditer avec le numérique est plurielle : elle peut débuter par la partie 3 pour ensuite revenir aux parties 2 et 1, tout comme elle peut être linéaire en suivant l’ordre du plan. Si les processus, quels qu’ils soient, doivent toujours être interrogés, il en va de même de ce mémoire qui est une incitation à reconsidérer les modes de fabrication du livre plutôt qu’une proposition à appliquer. Enfin, cet exercice de recherche est une tentative de publier avec le numérique.
1. Mutations du livre
Ce mémoire fait référence à nombre d’ouvrages et d’articles scientifiques5, ainsi qu’à d’autres textes permettant de donner un socle théorique à ce travail de recherche. Avant d’étudier des projets et d’explorer certaines pistes, nous avons jugé nécessaire de prolonger cet exercice bibliographique par l’analyse de trois livres, et d’intégrer ces commentaires de texte dans le mémoire. Des transformations de l’édition au « progrès technique » en passant par le « solutionnisme technologique », ces trois analyses sont autant d’occasions d’interroger les mutations du livre avec un esprit critique et des approches originales. Nous prenons le temps de présenter, résumer et disséquer trois textes, puis de proposer une courte hypothèse pour chacun d’eux : comment interroger la question des chaînes de publication avec les approches de chacun de ces auteurs ?
Post-digital print: la mutation de l’édition depuis 1894 (Ludovico & Cramer, 2016) est un ouvrage incontournable pour qui s’intéresse aux évolutions du livre et de la presse au vingtième et au début du vingt-et-unième siècle. Alessandro Ludovico y expose le concept d’« hybridation » à propos de la rencontre et de l’articulation entre papier et numérique, tentant de ne pas opposer ces deux mediums. Post-Digital Print est aussi un moyen d’aborder la question des formes du livre, multiples avant puis avec le numérique. L’hybridation n’est-elle réalisable qu’à condition de repenser les chaînes de publication ?
Pour tout résoudre, cliquez ici: l’aberration du solutionnisme technologique (Morozov, 2014) porte une voix dissidente par rapport aux enthousiastes – pour ne pas dire fanatiques – du numérique. Evgeny Morozov analyse de nombreux exemples où la technologie est mal employée, utilisée comme une solution en soi sans prendre en compte les problèmes qu’elle est censée résoudre. Comme Gilbert Simondon dont un des ouvrages majeurs est étudié dans un troisième temps de cette première partie, Evgeny Morozov défend l’idée que l’enjeu actuel n’est pas d’adhérer aveuglement ou de rejeter totalement la technologie, mais d’envisager une utilisation plus réfléchie. Les travers présentés dans Pour tout résoudre, cliquez ici peuvent être similaires dans le domaine de l’édition : l’usage systématique de logiciels monolithiques n’est-il pas problématique ?
Du mode d’existence des objets techniques (Simondon, 2012) est un texte fondateur dans le champ de la philosophie de la technique qui a influencé nombre de penseurs et d’auteurs. Gilbert Simondon y développe une thèse critiquant une vision dichotomique de la technique, cette dernière étant soit envisagée comme uniquement utilitariste, soit sacralisée ou rejetée. Il s’agit de repenser notre positionnement par rapport à la « machine », que la civilisation comprend mal. À partir de la thèse de Gilbert Simondon, comment pouvons-nous reconsidérer la place de l’humain par rapport à une chaîne d’édition classique, faite de logiciels hermétiques ?
Comme précisé dans l’introduction, ces commentaires de texte ne sont pas placés en annexes, afin de traduire les principes exposés ici : ce mémoire se veut un ensemble modulaire, dont les analyses de ces trois textes constituent le fondement théorique.
1.1. Hybridation
Les ouvrages abordant l’édition et le numérique sont nombreux, bien souvent concentrés sur des questions économiques et focalisés sur la grande édition. La littérature sur ce sujet oublie parfois que les pratiques les plus enrichissantes proviennent d’initiatives alternatives voir expérimentales. Dans ce paysage éditorial Post-Digital Print : la mutation de l’édition depuis 1894 (Ludovico & Cramer, 2016) est un sursaut bienvenu doublé d’un travail de recherche remarquable : cet essai est constitué d’une présentation historique et d’une analyse fine de l’évolution de l’imprimé au contact du numérique. Cette traduction française du livre d’Alessandro Ludovico publiée par les éditions B42 est d’un apport majeur.
Alessandro Ludovico est un chercheur, un enseignant, un artiste et un éditeur dont les intérêts et les écrits sont tournés vers le numérique et l’édition alternative depuis plus de vingt ans. Il est le créateur et rédacteur en chef de la revue Neural – fondée en 1993 et consacrée aux arts numériques.
Post-Digital Print : la mutation de l’édition depuis 1894 est publié en anglais en 2012, suite à un travail de recherche mené à la Hogeschool de Rotterdam, et disponible sous différents formats : un fichier PDF pour une diffusion numérique, une version imprimée à la fois en offset et en impression à la demande pour une distribution physique. Cette multi-disponibilité reflète ce qu’Alessandro Ludovico expose dans son livre : le papier et le numérique sont désormais complémentaires après plus d’un siècle de cohabitation, de rencontre et parfois de fusion. Post-Digital Print est réédité en 2014 par Onomatopee, puis publié par les éditions B42 en 2016 avec une traduction française de Marie-Mathilde Bortolotti.
Nous nous concentrons ici sur l’ensemble de l’ouvrage en tant que panorama et perspective de la publication en lien avec le numérique. Nous souhaitons également analyser l’évolution des chaînes de publication comme un des éléments de cette transformation de l’édition esquissée par Alessandro Ludovico.
1.1.1. Une rétrospective et une prospective de l’édition
Post-Digital Print est divisé en six parties, formant à la fois un parcours historique de l’édition et une analyse précise de projets éditoriaux et alternatifs depuis 1894. Pourquoi 1894 ? Il s’agit de l’année de publication d’un ouvrage qui imagine l’édition comme intégrant la voix sous forme directe (via le téléphone) et enregistrée (sur cylindre) : La Fin des livres d’Octave Uzanne et Albert Robida. Le premier chapitre de Post-Digital Print est consacré à l’analyse de la supposée « mort du papier » (p. 15) à partir de sept cas illustrant les propos d’Alessandro Ludovico. Le second chapitre examine l’édition alternative au vingtième siècle, principalement sur la période 1950-1980 qui a vu naître nombre d’initiatives éditoriales liées aux évolutions technologiques, en parallèle d’une édition classique. Le chapitre trois étudie la transformation du papier avec les bouleversements induits par le numérique, l’impression à la demande en est un exemple emblématique. Le quatrième chapitre explore les expérimentations, projets et entreprises d’édition numérique : que ce soit des plates-formes de vente en ligne, la distribution, les bibliothèques, mais également les artistes. Le chapitre cinq aborde la question de l’archivage, essentielle dans la problématique du papier en lien avec le numérique : de l’interrogation du support à celle de la constitution d’archives, en passant par la diffusion et la visibilité de celles-ci, passées ou futures. Le sixième et dernier chapitre s’attarde sur la question du réseau : en quoi transforme-t-il l’édition ? Et n’est-il pas le moyen pour celle-ci de dépasser la combinaison papier-numérique et de tendre vers une hybridation ?
Prenons le temps d’entrer dans ces différents chapitres pour comprendre l’intérêt de cette approche historique et l’analyse de ces nombreux cas d’édition alternative.
1.1.2. Les six chapitres de Post-Digital Print
Le premier chapitre est consacré à une histoire des media, depuis le télégraphe jusqu’à Internet, à travers laquelle Alessandro Ludovico analyse leurs relations et impacts avec les formats du livre et de la presse. Différentes inventions – conceptualisées, expérimentées ou adoptées – ont permis au texte imprimé d’évoluer, sans pour autant remettre en cause son existence, même si les prédicateurs de la fin du livre furent nombreux. L’hypertexte, Internet et la mise en réseau des acteurs du texte sont peut-être les seuls bouleversements en mesure de nous faire envisager une modification profonde de l’imprimé, malgré des limites d’usage.
Dans le second chapitre Alessandro Ludovico explore les évolutions des techniques d’impression en présentant différentes initiatives de publication de mouvements avant-gardistes – activistes, politiques ou artistiques. Du miméographe à la photocopie en passant par l’offset, des courants comme le futurisme italien, le dadaïsme ou le fanzine punk ont su s’approprier les technologies de reproduction, et qui plus est expérimenter des formes graphiques inédites. L’édition alternative a été un véritable laboratoire de l’impression, jusqu’au multimédia – représenté par le CD-ROM – et au numérique – dont Internet est la figure emblématique.
Les journaux et les magazines ont été les « objets imprimés » (p. 78) qui ont le plus vivement ressenti les mutations de l’édition avec le numérique : c’est l’objet du chapitre 3. Avec l’influence du web et de ses usages, l’« unité atomique » (p. 67) est passée du journal à l’article, remettant en cause le rôle de l’éditeur via des possibilités de personnalisation des contenus. L’impression à la demande, sorte de photocopieuse du début du vingt-et-unième siècle, est la matérialisation des processus en œuvre dans l’édition en ligne, notamment avec la facilité et la rapidité de production et de diffusion. Si d’un côté les magazines recherchent de nouveaux moyens pour résister – via des démarches développant leur visibilité ou par la réintroduction du « geste éditorial » (p. 75) –, l’« automatisation totale » (p. 91) de la publication est désormais accessible, et est le signe sinon la preuve d’un « mariage » entre l’impression et le numérique.
Le quatrième chapitre débute sur un constat : le livre numérique est né d’une intention de partage, intention qui a pu se transformer en une nouvelle forme de lecture grâce à un dispositif de lecture numérique intuitif et convivial, la liseuse à encre électronique. Cette nouvelle perspective, permise aussi par des sociétés qui usent de renforts marketing très puissants et dont les intentions sont clairement mercantiles, implique des enjeux de design : forme du texte, interface de lecture, reproduction de l’espace du livre, etc. Le « reformatage » (p. 110) du texte, comme l’appelle Alessandro Ludovico, est une condition du développement et du déploiement de ces nouveaux usages, offerte par le format EPUB. Comme nous pouvions le prévoir le développement du livre numérique va engendrer une modification de la figure du livre imprimé, ce dernier devenant un objet « rare » et « précieux » (p. 121) via l’utilisation d’éléments difficilement reproduisibles mécaniquement. Le numérique est alors un outil de diffusion des productions imprimées. Alessandro Ludovico rappelle, à juste titre, que la dématérialisation a un coût écologique – malgré le discours visant au sans papier –, et que les interfaces numériques ne proposent pas encore un confort de lecture similaire aux objets imprimés. La dualité entre imprimé et numérique est largement exposée dans Post-Digital Print, l’objet du chapitre suivant est justement de dépasser cette dualité.
De la même façon que le livre numérique a été une opportunité commerciale, la numérisation rétrospective de l’imprimé portée par des sociétés privées représente une manne financière immense, il ne s’agit donc pas que d’une entreprise patrimoniale : voici comment s’ouvre le cinquième chapitre. Entre le placement de publicités sur une masse de contenus considérable, et le phénomène d’attraction pour les ouvrages sous droits, peu d’initiatives permettent de concurrencer Google Books, et de proposer des archives réellement ouvertes aux cultures et disponibles librement pour tous. En dehors de ces projets d’archivage certaines initiatives de numérisation consistent à créer des versions plus exploitables que le papier, avec les techniques de reconnaissance de caractères ou le format PDF. Pour Alessandro Ludovico le défaut des « petits éditeurs » est d’avoir considéré le web comme un vecteur commercial, et non comme l’occasion de repenser une diffusion culturelle ou une nouvelle démarche de visibilité de leurs activités, deux options bien plus riches justement permises par un dépassement de la simple numérisation. Ce cinquième chapitre se clôt sur le concept de scrapbooking qui, à l’ère numérique, est la possibilité de constituer des archives éditorialisées et pérennes. Un élément clé permet d’envisager cela : le réseau.
Les premières lignes du sixième et dernier chapitre sont un rappel : en dehors de la littérature les livres sont des objets conceptuellement connectés entre eux, par exemple via des citations ou des bibliographies. Ainsi l’hypertexte ne fait que faciliter la profusion des liens et augmenter la dimension d’un réseau déjà constitué. Le numérique renforce cette nécessité d’une mise en réseau entre éditeurs, nœuds d’une structure distribuée. La distribution est justement une question centrale dans une activité de publication, « Et si Internet nous a appris quelque chose, c’est bien que la puissance combinée des nœuds individuels (et se renforçant mutuellement) est illimitée » (p. 163). Internet est plus qu’un nouveau canal de diffusion – comme l’ont été le télégraphe, la radio ou la télévision –, c’est aussi une « infrastructure » (p. 173) et un moyen d’imaginer de nouvelles modalités de distribution.
1.1.3. Vers une hybridation
Dans la conclusion de son ouvrage Alessandro Ludovico revient sur l’évolution des medias, et il note que la situation de l’imprimé est bien distincte de celles de la musique ou de la vidéo : « L’impression, néanmoins, est un cas très différent, puisque le medium – la page imprimée – est plus qu’un simple vecteur de matériel destiné à être montré sur un système d’affichage distinct ; c’est aussi le système d’affichage lui-même. » (p. 175) Ainsi, passer au numérique impose une modification de nos usages et de notre rapport avec le livre. L’hybridation serait le moyen de dépasser ce qui se limite à des nouveaux modes de lecture ou de consommation, pour atteindre un niveau « processuel » : le développement de nouvelles formes artistiques, des incidences sur l’environnement social et politique, etc.
L’« impression postnumérique », concept clé de ce livre, serait donc la combinaison de plusieurs éléments : depuis le modèle de la souscription via Internet jusqu’à l’hybridation de l’imprimé et du numérique en passant par l’utilisation d’un ordinateur pour concevoir et produire les objets imprimés et numériques. Citons quelques exemples utilisés par Alessandro Ludovico. Cory Doctorow propose des formats numériques gratuits (PDF, EPUB ou audio) et imagine plusieurs formes de livres imprimés – du format poche imprimé à la demande via la plate-forme Lulu.com à la version plus luxueuse fabriquée par des artisans du livre en nombre limité –, et des façons originales d’y accéder. Le livre numérique peut devenir un produit d’appel, gratuit, pour déclencher des ventes de livres imprimés. Le projet de Tim Devin d’impression de courriers électroniques distribués sur des pare-brise de voitures dans différentes villes des États-Unis est un exemple de la matérialisation d’objets numériques : un simple mail peut retrouver une figure d’autorité dès qu’il y a impression. Enfin, certaines publications imprimées ont évolué vers le numérique, c’est le cas de Boing Boing : ce fanzine (imprimé) connaît un succès important à la fin des années 1980 avant de cesser sa publication faute de distributeur ; une version web est alors créée quelques années plus tard, considérée comme un véritable pionnier du phénomène des blogs.
Post-Digital Print se referme sur la condition de cette hybridation : pour Alessandro Ludovico la métamorphose de l’édition est possible par le dépassement de toute « affiliation idéologique » (p. 180) liée aux medias imprimés ou numériques.
Post-Digital Print est un cas à part dans le domaine des ouvrages sur l’édition ou la publication numérique, cas qui pourrait se rapprocher de 6|5 d’Alexandre Laumonier – consacré au trading à haute fréquence sous le prisme du développement des moyens de communication. Pour mieux comprendre et étudier un sujet il faut bien évidemment analyser et interroger son progrès historique, ainsi Alessandro Ludovico retrace l’évolution technique de l’édition en illustrant ses propos de descriptions d’expérimentations souvent méconnues : des procédés comme la machine miméographique facilitant la reproduction d’imprimés clandestins ou des premières revues de science-fiction ; la mise en réseau permettant une distribution plus large avec le projet Whole Earth Catalog ; la technique d’impression offset avec l’apparition de revues comme Village Voice ou San Francisco Oracle aux mises en page plus audacieuses ; la photocopieuse amorçant le mouvement des fanzines ; ou le passage au tout numérique pour certains journaux à partir de l’année 2008.
Parmi les expérimentations que nous pouvons observer depuis 2012 à la suite de l’écriture de cet essai, voici quelques exemples choisis de façon subjective et reflétant les propos d’Alessandro Ludovico :
- la réédition de Flatland d’Edwin A. Abbott par Epilogue (Kehe, 2016) combinant un objet imprimé de grande qualité et un programme générant des formes en rapport avec le livre ;
- Zeitgeist de Frank Adebiaye (Fauchié, 2013) offrant deux lectures complémentaires, dont une numérique et aléatoire ;
- La dette technique de Bastien Jaillot et Design d’icônes : le manuel de Sébastien Desbenoit aux éditions Le train de 13h37 associant tous les deux la souscription avant publication et des versions imprimée et numérique ;
- Atomic Design de Brad Frost (Frost, 2016) donnant la possibilité de suivre l’écriture du livre et d’y contribuer ;
- la revue From–To de l’ÉSAD Grenoble Valence (Fauchié, 2015) avec un site web librement accessible et mis à jour régulièrement, et un livre imprimé au format et au prix réduits.
C’est avec une grande acuité que cet essai donne un aperçu clair de ce qui a été entrepris, et une perspective ouverte du territoire à explorer. Post-Digital Print parvient à articuler plusieurs axes déterminants pour l’édition, cette volonté d’embrasser la multitude des mutations de l’édition est relativement rare dans les ouvrages théoriques de ce domaine, généralement orientés vers une problématique principale – que ce soit Après le livre de François Bon, Le livre à l’heure numérique de Françoise Benhamou, Read/Write Book : Le livre inscriptible, ou encore Pratiques de l’édition numérique de Michael Sinatra et Marcello Vitali-Rosati. Alessandro Ludovico traite autant des aspects de design et d’usage, des enjeux de diffusion et de distribution, de la mise en réseau des acteurs de l’édition, de la recherche de stratégies économiques originales, et enfin des démarches d’archivage et d’accès. Lire et partager Post-Digital Print ouvre des perspectives pour la publication d’aujourd’hui et de demain.
1.1.4. Les chaînes de publication comme moyen d’une hybridation
Les réflexions d’Alessandro Ludovico nous permettent d’entrevoir un des éléments qui pourrait faire advenir cette hybridation. Un des enjeux de la mutation du texte – plutôt que du livre – se situe au niveau des moyens de conception et de production. La chaîne de publication, sujet peu abordé de façon frontale par Alessandro Ludovico, serait l’un des points de convergence des différentes dynamiques présentées dans Post-Digital Print : mutation de l’imprimé plutôt que fin du papier, expérimentations éditoriales grâce aux améliorations techniques, transformation du papier, édition numérique, archivage et réseau. Si l’hybridation est la réalisation de l’« impression postnumérique » (p. 178), comment cette hybridation peut-elle être réalisée ? Penser une chaîne de publication libérée d’« affiliation idéologique » (p. 179), capable de générer des formes et des formats tant pour le papier que pour le numérique, et en capacité de nourrir des ressources connectées, serait une solution.
Une chaîne de publication inspirée du web (Fauchié, 2017) correspond à un ensemble modulaire de technologies et de méthodes issues du développement web, et permet de se passer du duo classique de l’édition : traitement de texte et logiciel de publication assistée par ordinateur. Il est trop tôt pour développer précisément ce concept, mais nous pouvons déjà le décrire : il s’agit de l’association d’un langage de balisage léger permettant de se passer de logiciel particulier pour écrire et structurer des contenus, d’un système de contrôle de version pour travailler à plusieurs sur un texte, et de la génération de formats multiples – du PDF pour l’impression à l’EPUB en passant par du HTML pour une version web. Cette chaîne est l’outil qui concrétise, ou tout du moins ouvre la possibilité de concrétiser la thèse d’Alessandro Ludovico. Une modularité ne restreint pas la chaîne d’édition à la génération d’un seul format. Des technologies ouvertes limitent l’« affiliation idéologique » de l’outil, et suppriment la dépendance à des logiciels en particulier – eux aussi porteurs d’idéologie, les traitements de texte et les outils de publication assistée par ordinateur sont avant tout pensés pour l’imprimé. Les formats utilisés dans ce workflow assurent une pérennité et un archivage des productions. La gestion des fichiers et des échanges avec un système de contrôle de version est une mise en réseau dès la conception et la production.
Loin de nous l’idée de détourner la thèse d’Alessandro Ludovico, les chaînes de publication ne sont qu’un point soulevé indirectement par son ouvrage, mais aujourd’hui il s’agit d’un nœud déterminant pour le texte, le livre, l’action de publier. L’auteur de Post-Digital Print pose un certain nombre de faits marquants et analyse des mutations essentielles de l’imprimé, il esquisse et même établit les évolutions possibles du texte.
1.2. Solutionnisme
Evgeny Morozov est un chercheur et écrivain d’origine biélorusse, dont l’objet de recherche principal est le « problème technologique »6. Collaborateur de plusieurs revues et auteur pour des journaux comme le New York Times ou El Pais, il a enseigné à l’Université Stanford et il est membre d’un certain nombre de fondations engagées dans la critique de la technologie ou l’évolution des processus démocratiques. Pour tout résoudre cliquez ici (Morozov, 2014) est publié en 2013 – 2014 pour la traduction française – et fait suite à The Net Delusion : The Dark Side of Internet Freedom publié en 2011. Evgeny Morozov y prolonge sa critique d’une vision d’Internet idyllique voire fantasmée, non pas dans une démarche technophobe, mais plutôt dans une tentative d’esprit critique et philosophique visant à interroger en profondeur nos conceptions, usages et perceptions de la technologie dans un monde désormais imprégné de numérique. Nous devons noter le caractère grand public de cet ouvrage, Pour tout résoudre cliquez ici n’est pas un travail universitaire à proprement parler, quand bien même Evgeny Morozov construit sa pensée de façon méticuleuse et référence nombre de penseurs et d’ouvrages.
Au moment de la publication de cet ouvrage7 Evgeny Morozov est clairement en opposition à une majorité – au moins médiatique – enthousiaste des technologies numériques et d’Internet : entrepreneurs, ingénieurs, intellectuels et chercheurs, souvent en lien avec la Silicon Valley. Evgeny Morozov peut parfois être perçu comme un trouble-fête dans un univers numérique à l’apparente pensée homogène, ce livre a justement suscité un débat parmi les défenseurs du solutionnisme ou même de la part d’autres critiques des technologies (Wu, 2013). Il incarne la figure d’une critique peut-être trop rare qui nous pousse à dépasser les arguments marketing de la dernière application à la mode, ou à porter un regard nouveau sur nos usages quotidiens des technologies.
Dans cet essai, Evgeny Morozov aborde le concept de « solutionnisme », qui peut être grossièrement résumé en la simplification d’un problème pour y appliquer des solutions prêtes à l’emploi, sans réelle prise en compte du contexte. Ce solutionnisme, au contact des technologies numériques et d’Internet en première ligne, se meut en « webcentrisme », qui consiste en l’application d’Internet à n’importe quel problème ou défi majeur – de la réduction des déchets à l’amélioration de la démocratie. Evgeny Morozov critique le solutionnisme en général et le « webcentrisme » en particulier, qui sont pour lui des conséquences directes d’un manque de réflexivité envers les technologies, de l’absence d’approche philosophique de la technique, ou d’une recherche béate de l’efficacité maximale. Le solutionnisme conduit à une évolution de l’humain alors considéré comme une machine optimisable, tout comme son environnement ; l’autonomie d’êtres – pourtant doués d’intelligence – est tout simplement en voie de disparition. Loin de s’opposer à la technologie, Evgeny Morozov souhaite en défendre une autre conception, et un recours qui ne devrait pas être systématique.
Pour tout résoudre cliquez ici est constitué de neuf chapitres, les deux premiers présentent le « solutionnisme » et le « webcentrisme », concepts qu’Evgeny Morozov critiquera ensuite dans les six chapitres suivants à travers des analyses thématiques : l’ouverture de l’administration par la publication de documents jusqu’ici peu visibles, l’évolution de la politique et de son fonctionnement, l’usage des données personnelles via des algorithmes, la gestion du crime avec les technologies numériques, et l’exploitation des données personnelles et ses conséquences avec le transhumanisme. Le dernier chapitre est une synthèse des critiques formulées dans les parties précédentes. Nous nous concentrerons ici sur les deux premiers et le neuvième chapitres, et nous analyserons ensuite les processus de publication avec les outils critiques mis à disposition par Evgeny Morozov.
1.2.1. Une critique du solutionnisme
Dans le premier chapitre de Pour tout résoudre cliquez ici, Evgeny Morozov présente plusieurs projets conçus pour répondre à des problèmes importants, chacun reposant sur des technologies de mesures connectées à Internet. Dans ces exemples les solutions semblent ingénieuses, simples, et efficaces. Mais, systématiquement, l’homme et son environnement sont limités à quelques données mesurables et modifiables. Les « innovateurs » – comme les appelle Evgeny Morozov – à l’origine de poubelles connectées ou de gestion du traffic grâce aux téléphones intelligents, trouvent des solutions techniques à des problèmes complexes, mais en simplifiant ces problèmes. Nous sommes là dans des cas de « solutionnisme », et par « solutionnisme » Evgeny Morozov entend : limiter les « situations sociales » pour pouvoir les perfectionner, bien souvent dans une démarche de recherche de résultats rapides et visibles, à court terme. « Ce qui pose problème n’est pas les solutions qu’ils proposent, mais plutôt leur définition même de la question. » (p. 18) La position des solutionnistes présente un autre écueil en plus de simplifier dangereusement : trouver des problèmes là où il n’y en a pas.
Pour critiquer le solutionnisme, Evgeny Morozov fait référence à plusieurs penseurs modernes ou contemporains : Ivan Illich8 à propos des systèmes d’enseignement, Jane Jacobs9 à propos de l’urbanisme, Michael Oakeshott10 à propos des rationalistes, Hans Jonas11 à propos de la cybernétique, James Scott12 concernant la démocratie, ou encore Albert Hirschman13 et son système de trois variations – effet pervers, inanité et mise en péril. Le point commun entre ces penseurs est qu’ils considèrent tous que les solutionnistes ont une faible compréhension de leur environnement, de « la nature humaine » (p. 20). Evgeny Morozov insiste sur le fait que sa critique du solutionnisme ne consiste pas en une peur de l’échec – une mauvaise solution à un problème pourrait avoir des conséquences néfastes –, mais en deux constats : premièrement le solutionnisme détourne le problème initial pour pouvoir trouver une solution ; deuxièmement le solutionnisme remplace la décision – ou l’indécision – par des calculs, des prévisions, des mesures, des process de surveillance. L’humain devient alors robot asservi. La fin de la deuxième partie de ce premier chapitre se conclut sur cet énoncé limpide : « Le rejet du solutionnisme n’est pas celui de la technologie. » (p. 26)
L’objectif d’Evgeny Morozov est de démonter le solutionnisme : celui-ci a été grandement développé ces trente dernières années par « l’internet », ce concept souvent mal défini, et qui a pris plus d’ampleur encore avec le « webcentrisme » (p. 28). Le « webcentrisme » est la tendance à placer Internet au centre de tous les discours et de tous les projets, sans forcément bien circonscrire ce concept de réseau de réseaux. « Révéler le webcentrisme pour ce qu’il est facilitera grandement l’entreprise de discrédit du solutionnisme. » (p. 28) Ainsi Evgeny Morozov introduit le deuxième chapitre de son livre.
1.2.2. Le « webcentrisme » est le solutionnisme contemporain
Le second chapitre de Pour tout résoudre cliquez ici débute avec une double critique d’Internet : Internet est flou, même pour les médias spécialisés dans la technique/technologie ; Internet est sacré, pour ceux qu’Evgeny Morozov appelle les « geeks ». Aujourd’hui, Internet intègre toute technologie et aspire n’importe quelle innovation, jusqu’à former une bouillie informe impossible à définir précisément, mais pourtant bien maîtrisée – en apparence – par certains. Le problème est autant la définition d’Internet, que celle des usages qui y sont liés, et Evgeny Morozov de prendre l’exemple de Nicholas Carr qui est enfermé dans une vision monolithique : il n’y a pas un « net », Internet est plus complexe que la vision fantasmée de l’auteur de The Shallows: What the Internet is Doing to Our Brains14. Evgeny Morozov parle même d’« entité mythique » (p. 33) à propos de la vision qu’ont certains d’Internet, provoquant une vision binaire, dichotomique : il n’y a pas d’avant et d’après, cette évolution est diffuse, moins brusque qu’il n’y paraît. « Tous ces penseurs considèrent « l’internet » comme une entité à la fois unique et stable, significative et instructive, puissante et indomptable. » (p. 35) Nous devons porter un regard critique sur ce que nous considérons comme acquis : par exemple l’ouverture supposée de Google ou l’invisibilité administrative présumée de Wikipédia se révèlent autre si nous questionnons mieux et si nous prenons le temps de définir, avec « humilité » (p. 41).
Le « webcentrisme » regroupe des personnes ayant un même comportement caractéristique qu’Evgeny Morozov nomme l’« époqualisme ». Ainsi, les optimistes ou les pessimistes des innovations affirment l’existence d’une révolution sans l’expliquer, la justifier ou la comparer avec d’autres faits historiques. Ils ne convoquent pas l’histoire. Evgeny Morozov prend plusieurs exemples passés de systèmes qui ont été repris avec Internet : du crowdsourcing pour les cartes anglaises au dix-huitième siècle à la refonte d’un logo en 1936. Globalement ce que tente d’expliquer – avec quelques effets de répétition – Evgeny Morozov, c’est que le « webcentrisme » induit de tout vouloir expliquer au prisme d’Internet, sans esprit critique. Alors que conserver un esprit critique ne veut pas dire tout rejeter, au contraire. « Dans un pur esprit dialectique hégélien, le webcentrisme se maintient entre les deux pôles binaires que sont le pessimisme et l’optimisme d’Internet, faisant passer toute critique à son encontre pour une manifestation supplémentaire de ces deux extrêmes. » (p. 52) Pour poser les termes d’une révolution, il faut tenir compte de « deux critères » : il ne faut pas omettre ce qui s’est passé avant – au risque de défendre une pensée « anhistorique » (p. 53) –, et il faut s’appuyer sur le contexte contemporain global de cette supposée révolution – au risque de mal comprendre des phénomènes que nous pouvons pourtant observer. Mais alors n’y a-t-il pas des changements notables avec Internet ? Oui, mais le changement n’a pas été aussi brusque que nous pourrions le penser, il n’y pas eu de réelle rupture, comme d’ailleurs plus globalement dans l’histoire de la pensée.
Dans l’avant-dernière partie de ce deuxième chapitre, Evgeny Morozov prend l’exemple de l’imprimerie pour noter combien certains penseurs ont fait des comparaisons maladroites entre Internet et d’autres révolutions techniques et sociales. Par exemple Clay Shirky15 développe toute une argumentation autour des effets sociaux et économiques des technologies d’Internet, argumentation basée sur une théorie d’Elizabeth Eisenstein16 concernant l’imprimerie et la presse : celles-ci seraient à l’origine d’une ère totalement nouvelle, et de la même façon les bouleversements engendrés par Internet seraient sans précédent. Mais cette théorie a elle-même des limites, Elizabeth Eisenstein a tenté de marquer plus fortement une rupture qui existait mais qui n’était pas si nette, fruit d’évolutions successives :
Les limites de l’approche d’Eisenstein ont été soulignées par de nombreux universitaires et demeurent très pertinentes dans le débat actuel sur internet. Le premier à tirer le signal d’alarme, en 1980 (soit un an après la publication du livre) fut l’intellectuel et historien Anthony Grafton. Il vilipenda Eisenstein pour avoir « tirer de ses sources les faits et déclarations semblant répondre à ses besoins polémiques immédiats ». (Morozov, 2014, p. 61)
La conclusion de ce second chapitre consacré au « webcentrisme » est la suivante : le webcentrisme est l’expression contemporaine et l’outil du solutionnisme, il entraîne une absence de regard critique sur les technologies. Pire, il alimente une recherche aveugle d’efficacité, et déclenche des expérimentations basées sur celle-ci. Si le « webcentrisme » a d’une certaine façon aidé des combats militants, il a du même coup entraîné une perte de « clarté d’analyse » et de débat. Pour Evgeny Morozov le « webcentrisme » s’approche d’une religion, pour le critiquer il faut revenir aux bases, oublier ce que nous savons : les chapitres suivants sont consacrés à cette entreprise. « Le fait que ce webcentrisme nous coupe de la réalité est un motif d’inquiétude, non de réjouissances. » (p. 69)
1.2.3. Une critique en pratique
Le neuvième chapitre de Pour tout résoudre cliquez ici est un condensé des six chapitres précédents, ceux-ci présentant des analyses de cas de solutionnisme et de webcentrisme. Evgeny Morozov commence ce dernier chapitre en présentant le projet d’un parcmètre « intelligent » qui permet de mesurer l’usage des places de parking à Santa Monica, et d’améliorer le système de stationnement. Evgeny Morozov y applique les principes d’Albert Hirschman : inanité, effet pervers et mise en péril. Ce projet présente ces trois risques, puisque l’objectif final n’est pas l’amélioration de la ville en cela qu’elle est l’amélioration des citoyens et de leur situation – en tant que ceux-ci auraient la possibilité d’exprimer un choix, de décider – mais cet objectif est uniquement celui du profit financier de la Ville. Il ne suffit pas de relever les points facilement résolubles d’un problème, mais il faut considérer le problème dans toute sa complexité, et chercher à redéfinir les causes et les effets « en terme de relations, structures, et processus. » « Le vrai problème avec le système de Santa Monica n’est pas qu’il soit intelligent, mais qu’il ne le soit pas suffisamment. » (p. 314)
Là où nous nous trompons, c’est sur le fait de vouloir distinguer les solutions techniques d’un côté et les questions éthiques, sociales ou morales de l’autre. Les deux sont forcément imbriquées. Et Evgeny Morozov d’évoquer Jacques Ellul comme grand défenseur de cette séparation de la « moralité » et de la « technologie » : « Il est temps d’abandonner ce discours sur la « Technologie » avec un T majuscule pour nous consacrer plutôt à découvrir de quelle manière d’autres technologies peuvent favoriser ou nuire à la condition humaine. » (p. 315) Là où Jacques Ellul considère l’homme comme soumis à une technique désormais hors de contrôle, celle-ci ayant dépassé le simple statut de moyen ou d’outil, Evgeny Morozov soutient qu’il faut dépasser ce constat et s’organiser pour chercher et trouver les meilleures solutions, sans vouloir rejeter la technologie par principe. Il faut prendre en compte que les humains que nous sommes et le monde que nous habitons ne sont pas optimisables comme des machines : le niveau de complexité des solutions est proportionnel au contexte des problèmes auxquelles elles répondent. La technologie peut aussi proposer un choix à l’humain qui l’utilise, et donc déplacer la solution : non plus dans un fonctionnement technique binaire – appuyer sur un bouton – mais comme processus de décision que va prendre un être conscient et réfléchissant. Evgeny Morozov présente plusieurs exemples qui vont dans ce sens, notamment des « appareils erratiques » ou des « produits transformationnels » (pp. 317 et 319).
Evgeny Morozov aborde le fonctionnalisme – probablement pour dépasser le solutionnisme – et le définit ainsi : les objets technologiques ont des fonctions et des objectifs, il s’agit alors de chercher à concevoir et produire des objets qui expriment cela le plus fortement possible. Le fonctionnalisme pousse les concepteurs, les designers, à ne pas penser des objets « initiateurs de débats » (p. 320). Pour Evgeny Morozov il faut modifier les objectifs du fonctionnalisme – et donc indirectement ceux du solutionnisme : non plus chercher le meilleur et le plus efficace des objets technologiques pour effectuer telle tâche, mais permettre une relation entre la machine et son utilisateur qui donne lieu à une solution. Et c’est là le rôle du designer que d’ouvrir un dialogue entre l’objet et son utilisateur via l’interrogation de l’origine de cet objet et des usages causés par ce dernier. Le design, par le biais de ces « artefacts », doit susciter une discussion qui mènera aux solutions via des usages non prévus ou insoupçonnés. Pour prolonger sa réflexion Evgeny Morozov prend un détour avec des exemples dans le domaine de l’économie d’énergie. À travers ceux-ci, il nous incite à passer d’une « conscience pratique » à une « conscience discursive » (p. 324) : la conscience pratique correspond à une mesure de nos consommations, à un rapport assez rationnel avec la technologie, alors que la conscience discursive correspond à une « introspection » à la fois personnelle et collective.
Internet, en tant qu’il est désormais le vecteur le plus important de l’information, n’est-il pas trop fonctionnaliste, et notamment à travers les services et outils qui nous permettent de l’utiliser ? Evgeny Morozov compare donc le fait de laisser un objet électrique en veille et le fait de consommer de l’information à outrance via de nombreux agrégateurs et fermes de contenus. Il est possible de rendre visible notre consommation d’information et son impact, alors pourquoi ne pas le faire ? Moralité et prise de décision ne sont pas des denrées limitées comme le pétrole, comme veulent nous le faire croire nombre de penseurs solutionnistes, mais plutôt des éléments qui s’auto-génèrent à mesure que nous en créons. Il ne faut plus faire appel à la psychologie à travers le solutionnisme, mais plutôt à la philosophie. Ainsi la question du choix est centrale : nous pouvons avoir l’impression de choisir – par exemple entre un produit de grande distribution et un produit bio –, alors que notre choix n’aura que peu d’incidence sur un plan global, et encore moins sur nous puisqu’il n’y aura plus de prise de conscience accompagnant ce choix.
La sérénité, l’absence de conflit et l’absence de faille sont une influence de ceux qu’appellent Evgeny Morozov les « geeks » : la technique pouvant être optimisée continuellement, pourquoi ne pas faire la même chose avec l’humain ? L’exemple de la vie privée permet de comprendre que la contrainte peut être une bonne chose : « Le but de la vie privée n’est pas de protéger un soi stable de l’usure, mais de créer des frontières entre lesquelles il puisse jaillir, évoluer et se stabiliser. En d’autres termes, les limites et les contraintes peuvent être productives, bien que toute l’arrogance de « l’internet » suggère le contraire. » (p. 337) Au risque de nous répéter, la perte d’autonomie ne semble pas problématique lorsque c’est pour une bonne cause – Evgeny Morozov prend l’exemple de l’économie d’énergie –, mais il y a pourtant un double « écœurement » : la « ruse » utilisée pour nous convaincre d’agir ainsi, et le fait que nous ayons l’impression d’avoir une autonomie dans ce choix. « Tenter d’améliorer la condition humaine en supposant tout d’abord que les personnes sont comme des robots ne nous mènera pas bien loin. » (p. 340)
La conclusion de ce chapitre, qui est également la conclusion de Pour tout résoudre cliquez ici, prend la forme d’un avertissement et d’une ouverture : si le principal défaut des ingénieurs est de reconsidérer perpétuellement les situations – « Pour eux, tout est négociable, y compris la dignité et l’autonomie. » (p. 342) –, alors il faut réintroduire de l’irrationalité, des débats, des délibérations, des questionnements dans la façon dont nous concevons et nous utilisons la technologie. Le solutionnisme doit intégrer du doute pour dépasser ses propres limites.
1.2.4. Esprit critique et question du choix
Pour tout résoudre cliquez ici s’inscrit dans un mouvement de pensée minoritaire lorsqu’il est publié en 2013, Evgeny Morozov se positionnant résolument contre une partie des innovateurs et des essayistes des nouvelles technologies, et cela sur le même terrain : Pour tout résoudre est en effet un livre destiné au grand public, nous n’avons pas affaire à un travail purement universitaire. Comme il le démontre lui-même il n’est pas seul à remettre en cause une certaine approche de la technique et de la technologie, ses références sont autant des chercheurs contemporains que des intellectuels des vingtième et dix-neuvième siècles. Sa proximité avec ces courants est principalement philosophique, en cela que la philosophie cherche à définir précisément une question, avant même de répondre à cette question. Derrière des propos qui semblent souvent pessimistes, négatifs voir alarmistes, Evgeny Morozov construit une vision de la technique proche de celle du philosophe Gilbert Simondon : la technique n’est pas mauvaise en soi, mais c’est notre rapport avec elle qu’il faut reconsidérer. Le constat froid et alarmiste d’une technique qui assujettit l’homme doit être dépassé par une nouvelle considération de la technique et de son application : nous devons nous repositionner par rapport à la technologie. Le penseur d’origine biélorusse va plus loin : les designers et les ingénieurs ont le choix de concevoir des objets, des artefacts ou des systèmes qui ne considèrent pas l’humain comme un robot, de laisser de côté le solutionnisme et le « webcentrisme » pour se concentrer sur des approches techniques véritablement humaines.
1.2.5. Des processus de publication solutionnistes ?
Nous allons projeter la critique du solutionnisme d’Evgeny Morozov sur un objet qui, contrairement au domaine choisi dans Pour tout résoudre cliquez ici, n’est pas directement social : prenons les processus et les outils de publication. Actuellement, les logiciels les plus utilisés par les maisons d’édition sont les traitements de texte et les logiciels de publication assistée par ordinateur. Quels sont les objectifs de ces outils ? Faciliter le travail de publication, qui consiste en plusieurs tâches : la structuration de contenus, les interactions sur un texte, la mise en forme, la génération des formats permettant une diffusion papier ou numérique, et l’archivage des fichiers de travail. Les logiciels en question sont conçus pour être relativement simples d’utilisation, masquant des aspects pourtant importants : distinction du fond et de la forme, compréhension des enjeux liés à certains formats, qualité du code dans le cas du livre numérique, etc. L’utilisation d’un logiciel de publication assistée par ordinateur ou d’InDesign – pour le citer –, se fait donc presque à l’aveugle, si nous prenons en compte qu’il s’agit uniquement d’une relation entre une interface et un utilisateur, et que le fonctionnement de cette interface reste opaque. Remettre en cause ces processus ne consisterait pas à complexifier des tâches qui n’auraient pas besoin de l’être, mais à replacer de la transparence dans des procédés nécessitant une compréhension et une réflexivité.
Si les besoins d’une maison d’édition peuvent différer selon sa spécialité, les outils restent globalement les mêmes – ce qui peut paraître étonnant en comparaison d’autres métiers –, et par ailleurs les évolutions des logiciels en question sont unilatérales : il n’y a pas de retour en arrière possible lors d’une mise à jour par exemple. Un même outil cherche à résoudre des problèmes très différents et tente de s’adapter à tout type de situation : il finit par faire mal les choses, et à imposer de mauvais mécanismes. Nous retrouvons les traits du fonctionnalisme, et dans certains cas d’utilisation il s’agit même de solutionnisme : la recherche d’efficacité masque les objectifs initiaux de tels outils. Les solutions mises en place visent à résoudre les problèmes les plus évidents, simplifiant et éludant jusque l’une des composantes essentielle de l’édition : la différenciation entre la structure – le texte lui-même et les valeurs qui lui sont attribuées – et la mise en forme – les caractéristiques graphiques attribuées à la structure. La marge de décision de l’utilisateur est presque inexistante. Il faut pourtant que l’objet technique provoque une réflexion chez l’utilisateur, et ainsi que ce dernier résolve un problème. C’est bien dans cette relation avec l’utilisateur qu’un problème peut être résolu, et non en appuyant sur un bouton. Les traitements de texte et les logiciels de publication assistée par ordinateur sont clairement du côté du choix rationnel : la première contrainte est de résoudre un problème – concevoir et produire un livre, donc publier –, quand bien même ce problème n’est pas défini – en quoi consiste exactement publier ? Le recours à un logiciel monolithique comme InDesign oblige à enfermer sa vision dans un processus et pas dans un autre.
L’automatisation de certaines étapes d’une chaîne de publication est nécessaire, des outils adaptés sont donc incontournables pour un éditeur. Mais, en plaçant la convivialité ou la modularité comme principe de départ, d’autres modes de fonctionnement sont possibles, qui ne visent pas l’efficacité directe de l’outil mais la maîtrise de l’activité de publication. La constitution du collectif PrePostPrint (Fauchié, 2017) est une initiative qui va dans ce sens, l’exemple le plus marquant porté par cette démarche de recherche et de démocratisation est l’utilisation des langages HTML et CSS pour fabriquer et produire des publications imprimées, aussi appelée HTML2Print. HTML et CSS sont des standards : l’un est conçu pour structurer des contenus, et le second pour déterminer une mise en forme à partir de la structure. Le recours aux technologies du web dans ces cas n’est pas une application du « webcentrisme » à la publication, mais plutôt l’utilisation réfléchie et adéquate d’une technologie dans une situation et une période données. Par ailleurs ce type de procédé implique un travail de conception, d’apprentissage et de remise en cause régulière, donc de l’humain là où les chaînes de publication sont actuellement surtout composées de logiciels.
Par ailleurs, au-delà du choix technologique – logiciel ou langages HTML et CSS – il faut mentionner celui de la forme des collaborations. PrePostPrint, ou des initiatives préexistantes comme les workshops d’Open Source Publishing17 ou d’autres structures, sont autant des temps destinés à la conception et à la production, et basés sur des procédés originaux, que des occasions qui portent des discussions et des échanges autour de problèmes et de solutions. L’objectif n’est pas uniquement de produire, mais de permettre un débat, débat qui peut par ailleurs se prolonger sous d’autres formes – via des sites web, du partage de code, etc.
Evgeny Morozov nous donne des clés pour construire une critique d’un solutionnisme présent dans notre rapport aux technologies, y compris dans le domaine de l’édition. Remettre en cause des processus opaques n’est pas une position négative qui rejette toute solution technique, mais la possibilité de ré-introduire de l’humain et de rechercher la meilleure solution à un problème en fonction du contexte. Meilleur au sens où la maîtrise et la liberté de choix doivent être conservés, où l’humain doit être au centre des procédés, et où la remise en cause doit être permanente, si ce n’est perpétuelle. La pensée de Gilbert Simondon, comme nous l’avons déjà évoquée, précède et prolonge ces réflexions, nous l’analysons dans la prochaine partie.
1.3. Progrès technique
Gilbert Simondon est un philosophe français né en 1924 et mort en 1989. Philosophe de la technique, mais également professeur de psychologie et de physique, il a une démarche résolument encyclopédique. Du mode d’existence des objets techniques (Simondon, 2012) est sa thèse complémentaire qu’il soutient en 1958 et qui est publiée la même année, dans laquelle il aborde la condition des objets techniques au même titre que les objets sacrés ou les objets esthétiques, pour construire une culture technique comme mode de rapport au monde de l’homme. Ce texte est probablement le plus connu du philosophe, même si une vingtaine d’ouvrages ont été publiés, souvent posthume, dont : L’Individu et sa genèse physico-biologique, L’individuation psychique et collective, Sur la technique, Sur la psychologie, ou Sur la philosophie.
Encore étudiée et citée aujourd’hui, l’œuvre de Gilbert Simondon a marqué notre époque et a influencé des penseurs comme Gilles Deleuze, de nombreux philosophes contemporains comme Bernard Stiegler ou Pierre-Damien Huyghe s’y réfèrent directement. Gilbert Simondon est en quelque sorte un héritier de Marx (« Séminaire Simondon et Marx, technique et politique », 2012), et prolonge les pensées de Gaston Bachelard et Henri Bergson (Barthélémy, 2008). Du mode d’existence des objets techniques, ou MEOT, représente en soi une révolution philosophique du vingtième siècle, Gilbert Simondon s’opposant à la plupart des penseurs techniques – dont Martin Heidegger qui ne pense pas la technique à partir de la catégorie de l’objet (Portis-Guérin & Berger, 2016).
MEOT est composé de trois parties : la première est consacrée à l’objet technique sous l’angle de sa genèse et de son évolution ; la seconde partie se concentre sur le rapport de l’homme et de la technique, notamment en traitant des questions d’éducation, de formation et de progrès ; la troisième partie fonde la culture technique, base du rapport de l’homme au monde et à la nature. Nous nous concentrons ici sur la première partie Du mode d’existence des objets techniques, elle ouvre des perspectives passionnantes pour évaluer certaines technologies numériques du vingt-et-unième siècle, et y porter un regard critique.
1.3.1. Une critique de la technique
La question de la technique est encore abordée d’une façon dichotomique lorsque Gilbert Simondon écrit cette thèse : soit considérée comme purement utilitariste, soit sacralisée ou rejetée, la technique est détachée de la culture. La première partie Du mode d’existence des objets techniques traite de la question de l’objet technique afin de constituer, dans le reste de cet ouvrage, une culture technique comme nouveau socle du rapport de l’homme au monde. L’aliénation du monde contemporain n’est pas due à la machine, mais à une mauvaise reconnaissance de la technique. Notre civilisation est « mal technicienne » (Parent, 1968) : elle comprend mal la technique et ne se positionne pas de façon juste par rapport à elle. Nous ne pouvons que réaffirmer ce que Gilbert Simondon exposait il y a plus de cinquante ans : la technique est mal perçue, et pour mieux la comprendre l’auteur Du mode d’existence des objets techniques nous invite à définir l’objet technique en tant qu’être et en tant qu’individu. L’objet technique est la clé de cette nouvelle compréhension de la technique : il est doté d’une existence et d’une individualisation. Par ailleurs son analyse nous permet de définir ce qu’est le progrès technique.
Comment repositionner l’homme et la machine ? À travers un travail de définition et de genèse, Gilbert Simondon présente tout d’abord les conditions d’existence de l’objet technique dans le premier chapitre de la première partie : phénomène de concrétisation et mode d’évolution de l’objet technique. La question de l’individualisation occupe le deuxième chapitre : concept de milieu associé et forme de l’évolution technique. En déterminant le mode d’existence des objets techniques, Gilbert Simondon place les bases d’une culture technique qu’il développe dans les parties suivantes, que nous ne commentons pas ici.
Afin d’illustrer la pensée de cette première partie et de la replacer dans un contexte contemporain – un monde numérique –, nous nous attarderons sur un exemple d’objet technique qui nous intéresse particulièrement ici : les chaînes de publication, c’est-à-dire l’ensemble du processus de conception et de production de livres. Enfin, nous répondrons à deux questions essentielles. Comment dépasser une conception uniquement utilitariste de la technique, quelle peut être cette perfection interne des machines ? Le progrès technique ne peut-il pas être autre chose qu’une recherche effrénée vers l’efficacité et émanciper l’homme de son mauvais positionnement par rapport à la machine ?
1.3.2. La génèse de l’objet technique
Dans le premier chapitre de la première partie Du mode d’existence des objets techniques, Gilbert Simondon cherche à décrire l’objet technique suivant son évolution : en cherchant les liens entre un objet technique du passé et un objet technique du présent, nous découvrons une ontogenèse. Celle-ci s’appuie tout d’abord sur la définition du concept de « concrétisation » (p. 26), concept qui est l’une des conditions d’existence de l’objet technique. Nous pouvons considérer que l’objet technique a une « forme abstraite » (p. 24) lorsqu’il est dissocié de son environnement de fonctionnement, à l’inverse la concrétisation de l’objet technique se définit par l’imbrication des fonctions qui le composent, celles-ci peuvent former une synergie : les fonctions convergent.
Prenons l’exemple de l’ustensile : en soit il ne fait que répondre à un besoin précis, il est purement fonctionnel, sa ou ses fonctions sont chacune indépendante, son fonctionnement est linéaire – une fonction après l’autre –, il s’agit d’un objet technique abstrait. Prenons un second exemple : un moteur n’a pas un fonctionnement linéaire, ses éléments sont imbriqués, certaines fonctions se répondent entre elles, il y a une synergie interne au moteur, il s’agit d’un objet concret. En termes de genèse l’« objet technique abstrait » (p. 29) est primitif, ancien, il y a donc une évolution technique, mais comment s’est-elle déroulée ? Le progrès technique est brusque, il n’est pas continu, il est composé d’« évolutions mineures » (p. 46) et d’« évolutions majeures » (p. 46). Les évolutions mineures sont des améliorations : ajout d’une fonction augmentant l’efficience de l’ensemble, comme le fait de compléter une phrase par un appendice entre parenthèses. Les évolutions majeures s’appuient sur les évolutions mineures, elles se traduisent par de nouveaux objets techniques, comme le fait de reformuler une phrase pour la compléter, plutôt que de lui adjoindre une parenthèse : remplacer l’extension par une refonte.
Ce que nous pouvons en déduire, c’est que la perfection d’un objet technique ne correspond pas à son degré de résolution d’un problème, mais à la cohérence et la performance de son propre fonctionnement. Nous ne devons pas tomber dans une recherche de l’utilité pure qui nous obligerait à juger d’un degré de progrès technique en fonction de la simple réponse de l’objet technique à un problème que nous aurions posé. Il y a une forme de beauté interne de l’objet technique, que nous pourrions comparer à celle d’un organisme, même si un objet technique n’est pas vivant. Si nous parlons ici d’évolution technique, quelle forme prend-elle ? Le progrès technique est basé sur un double mouvement : les évolutions mineures, correctives, donnent lieu à des évolutions majeures, de nouveaux objets techniques ; il ne s’agit donc pas d’une genèse, mais d’une filiation ; les objets techniques sont liés entre eux et le progrès technique n’est pas une évolution continue, mais un processus discontinu dans lequel l’humain a un rôle clé.
La question soulevée à la fin de ce premier chapitre est la suivante : comment est permise cette évolution ? Quel est ce cadre inventé par l’homme et qui donne lieu à une concrétisation ?
1.3.3. L’individualisation de l’objet technique
Le second chapitre de cette première partie débute par la définition de l’« hypertélie » (p. 61) de l’objet technique, qui est un phénomène de spécialisation qui le rend moins adaptable, et moins autonome. L’hypertélie peut être de plusieurs ordres : spécialisation, division en vue d’une spécialisation, efficience en fonction de l’environnement extérieur. La plurifonctionnalité des objets techniques n’est possible que sans spécialisation des deux premiers types, elle est toutefois rendue possible dans un certain milieu, le troisième milieu : ni l’objet technique seul, ni son contexte. Il s’agit donc d’un équilibre entre deux milieux, permis par l’homme : le « milieu associé » (p. 70).
La particularité du milieu associé est qu’il est créé par l’objet technique et que ce milieu permet à l’objet technique d’exister : « Ce milieu à la fois technique et naturel peut être nommé milieu associé. Il est ce par quoi l’être technique se conditionne lui-même dans son fonctionnement. » (Simondon, 2012) Prévoir ce qui se passera dans une situation d’application – l’objet technique immergé dans un contexte particulier – est la condition permise par l’homme, un acte d’invention, nous pouvons considérer la « causalité récurrente » (p. 75) comme son expression visible. Cette forme d’autonomie, et donc cette individualisation, s’exerce au niveau de l’individu technique, et non au niveau de l’ensemble technique, ce dernier en héritant néanmoins, comme pour la causalité récurrente. Si Gilbert Simondon insiste sur ce point, nous pouvons noter que le caractère d’individualisation concerne l’individu technique et le niveau inférieur, l’élément technique, mais sans que ce dernier ne possède de milieu associé. Les éléments techniques ont un caractère d’individualisation uniquement parce qu’ils composent l’individu technique. Le passage de causalité se fait donc entre élément technique et individu technique, nous devons approfondir l’aspect temporel qu’implique ce passage et quelle différence il y a avec le vivant.
Dans le cas du vivant l’organe ne peut être détaché de l’ensemble, alors que l’élément technique peut être retiré de l’individu technique ; le vivant engendre à l’identique, alors que la technique produit. Le « temps de relaxation » (p. 83) est l’une des distinctions entre le vivant et la technique : comme nous avons déjà pu le voir le progrès technique est discontinu, en dents de scie. Gilbert Simondon introduit le concept de « production indirecte » (p. 88), que nous pouvons comprendre comme l’amélioration progressive qui donne lieu à des nouveaux objets techniques, c’est par le jeu de leurs imperfections que les objets techniques évoluent, contrairement aux êtres vivants qui, par leur perfection, engendrent des êtres identiques à eux. Nous pourrions ajouter une précision aux propos de Gilbert Simondon : les êtres vivants évoluent dans un temps long, ils ne sont pas parfaitement identiques lorsqu’ils s’engendrent, alors que les objets techniques connaissent des bons d’évolution.
La machine et l’homme sont très différents : la machine porte les outils et les dirige, et l’homme règle et dirige la machine. Le point commun entre la machine et l’homme réside dans la notion d’individu, qui peut être considérée comme l’auto-régulation, il y a l’idée d’un fonctionnement autonome. Par exemple la machine-outil ne fait qu’utiliser des outils, alors que l’objet technique est plus indépendant ; Gilbert Simondon fait également la distinction entre technicien et artisan pour appuyer cette précision. Partant du constat d’une part que les civilisations non-industrielles n’ont pas d’individu technique parce que c’est l’homme qui porte les outils, et d’autre part que les civilisations industrielles ont des individus techniques parce que l’homme devient celui qui permet l’auto-régulation des machines, nous devons alors nous interroger sur le niveau d’intervention de l’homme sur l’objet technique. L’homme était un individu technique, il ne peut donc intervenir dans l’individu technique, mais au-dessous – l’élément technique – ou au-dessus – l’ensemble technique.
Gilbert Simondon introduit la notion de « culture technique » et prévoit de l’expliciter dans les prochaines parties, en tant qu’elle permet de résoudre la confusion autour de l’individualisation de l’objet technique : il n’est pas humain, mais parce qu’il est individu l’homme croit que la machine a des propriétés humaines. « Il est nécessaire que l’objet technique soit connu en lui-même pour que la relation de l’homme à la machine devienne stable et valide : d’où la nécessité d’une culture technique. » (Simondon, 2012)
La pensée de Gilbert Simondon peut être considérée comme novatrice, l’analyse de la première partie nous en révèle déjà plusieurs raisons. Le statut d’objet technique est une nouvelle approche, contrairement à des courants de pensée moderne comme la philosophie de Martin Heidegger. Autre opposition avec Martin Heidegger, la conception de la technique présentée dans MEOT n’est pas une dépossession supplémentaire de l’homme, pas plus qu’elle est une simple supériorité de l’homme sur la nature comme le soutient Nietzsche. Parmi ses contemporains, nous pouvons noter la position de Jacques Ellul qui place dans la technique une dimension politique et morale, en tant qu’elle est la source de nouvelles aliénations, ce que réfute justement Gilbert Simondon. Ce dernier a également influencé nombre d’auteurs, nous pouvons citer Bernard Stiegler qui a bâti un concept d’« individuation » et de « transindividuation » (Stiegler, 2006) à partir d’une critique de Gilbert Simondon, ou Pierre-Damien Huyghe qui y fait référence dans plusieurs de ses travaux.
1.3.4. Un objet technique contemporain : les chaînes de publication
Pour illustrer les idées, les concepts ainsi que la thèse que Gilbert Simondon présente dans la première partie de son livre, nous choisissons un objet technique contemporain : les chaînes de publication.
Une chaîne de publication est l’ensemble des outils et méthodes qui forment le processus de conception et de production des livres, ou plus globalement des publications. Un exemple type est le couple traitement de texte et logiciel de publication assistée par ordinateur. A contrario les chaînes de publication qui utilisent les technologies et les méthodes du développement web peuvent représenter un progrès technique par rapport aux chaînes de publication classiques. Ces dernières utilisent des logiciels destinés à accomplir une tâche : d’un côté écrire du texte et éventuellement le structurer avec un traitement de texte, et de l’autre côté mettre en forme et produire un fichier permettant une impression papier avec un logiciel de publication assistée par ordinateur. Majoritairement propriétaires et fermés, le code de ces logiciels n’est pas accessible, modifiable ou partageable, plaçant ceux qui conçoivent et fabriquent les livres dans une situation d’aliénation imposée. Par exemple si un logiciel comme InDesign ne prend plus en charge GREP – système d’expressions régulières permettant de faciliter les remplacements en série –, alors l’éditeur qui l’utilise est obligé de trouver une autre solution, ou pire il perd un temps précieux. Autre exemple : si l’interface d’un traitement de texte est complètement revue, son utilisateur ne peut pas la modifier, et doit se former à nouveau pour être en mesure de la comprendre et de la prendre en main. Avec des logiciels ouverts, une possibilité de modification par la communauté existe : cela ne veut pas dire que chaque problème a sa solution, mais il y a une possibilité.
L’arrivée du livre numérique a obligé les éditeurs à modifier une partie de cette chaîne et son mode de fonctionnement : en détournant l’usage d’un logiciel de PAO, ou en faisant appel à un autre outil – un logiciel dédié à la production de livre numérique –, et en devant ouvrir au moins en partie le code source de ces livres. L’environnement a donc changé, et la chaîne de publication a connu une correction mineure : elle a été perfectionnée par l’ajout d’un élément, et le mode de production n’a été modifié qu’en partie. Une chaîne de publication qui abandonne le duo traitement de texte et logiciel de PAO, et qui se base sur des technologies et des méthodes de travail du web, est une évolution majeure, et ce pour plusieurs raisons : il ne s’agit plus de simples perfectionnements fonctionnels ou correctifs – par exemple pour produire un livre numérique au format EPUB –, mais une modification de l’ensemble des éléments pour parvenir à produire un livre en plusieurs formats, dont le format EPUB.
L’un de ses éléments est l’utilisation d’un langage de balisage léger comme Markdown pour écrire et structurer les contenus, cette utilisation ouvre plusieurs perspectives, et assure plusieurs fonctions elles-mêmes imbriquées : pouvoir se passer d’un logiciel spécifique comme un traitement de texte ; s’assurer que le fichier sera lisible dans plusieurs années ou dizaines d’années ; transformer facilement les fichiers dans un format structuré comme le HTML ; et disposer d’un format permettant de structurer un texte tout en étant lisible par un humain. Une chaîne de publication inspirée du web n’est pas seulement un meilleur moyen de concevoir et produire des livres, ou simplement un système perfectionné, nous constatons que cette chaîne est surtout l’occasion pour celle ou celui qui l’utilise de mieux comprendre la technique et de s’y positionner plus justement. Mieux comprendre implique une action de documentation qui accompagne l’usage, consciemment ou inconsciemment, et donc de constitution d’une culture technique telle que Gilbert Simondon l’a théorisée. S’y positionner plus justement : non pas dedans comme avec un logiciel qui fonctionne telle une boîte noire, mais au-dessous, dans la création et l’ajustement d’éléments et de briques techniques, et au-dessus, dans l’orchestration de l’ensemble technique que forme cette chaîne de publication.
1.3.5. Un regard critique sur le monde numérique
Gilbert Simondon nous a donné le matériel nécessaire pour que nous conservions un regard critique sur le monde numérique du vingt-et-unième siècle – bien que Du mode d’existence des objets techniques est illustré d’exemples mécaniques et électrotechniques du milieu du vingtième siècle –, et pour que nous puissions nous y placer d’une façon juste, sans nous aliéner. Encore aujourd’hui, la technique est embrassée ou rejetée, nous observons majoritairement une dualité entre postures technophile et technophobe, par manque de connaissance de la technique, mais également par manque de maîtrise de celle-ci. En observant le fonctionnement même des machines et des systèmes techniques, et leur rapport avec leur environnement, nous pouvons intégrer la technique comme la possibilité d’établir une relation juste avec la nature.
Les chaînes de publication inspirées du web peuvent être considérées comme un objet technique ouvert et comme une occasion de mieux comprendre comment produire des livres : la culture technique est une question de réappropriation par des choix technologiques et des choix de processus. Nous ne devons pas être naïfs quant au progrès technique que peut représenter cet exemple, celui-ci pouvant être repris au compte du fonctionnalisme ou de la recherche aveugle de l’efficacité. Le progrès technique en tant qu’il peut être une émancipation de l’homme doit intégrer une dimension d’analyse et d’accompagnement continus : avoir le recul nécessaire sur les usages et les outils produits, et faire œuvre de pédagogie pour que ce recul puisse perdurer.
L’analyse de ce troisième texte majeur vient compléter un matériau théorique qui nous permet désormais d’aborder des exemples concrets de chaînes de publication originales, il s’agit de la partie suivante.
2. Expérimentations
Les textes d’Alessandro Ludovico, d’Evgeny Morozov et de Gilbert Simondon constituent des fondations pour envisager une nouvelle relation au numérique, à la technologie et à la technique. Et plus encore lorsque nous parlons de la façon dont nous pouvons concevoir, fabriquer et produire des livres. En nous appuyant sur la technique en tant que logiciels, programmes, méthodes et organisation, nous pouvons considérer de nouveaux modèles ouverts permettant de faire avec le numérique. Nous devons désormais ajouter une nouvelle dimension à ce moment théorique, celle de la pratique : comment des concepts peuvent être appliqués dans le champ de l’édition ?
Après ces trois commentaires de textes longs formant la première partie, nous analysons des cas emblématiques venant confirmer ou tempérer les premières hypothèses de ce mémoire. Depuis les méthodes et outils mis en place par la maison d’édition américaine O’Reilly jusqu’à la démarche singulière de la revue Distill, en passant par l’innovant workflow de Getty Publications, voici trois analyses de cas qui nous donnent la matière nécessaire à l’établissement des principes exposés dans la troisième partie.
O’Reilly Media, une structure d’édition spécialisée dans des ouvrages sur l’informatique, utilise depuis de nombreuses années un certain nombre de méthodes et d’outils pour faciliter le travail des auteurs et gagner en efficacité. Cela se traduit notamment par l’adoption de standards et la réalisation d’une plate-forme sur mesure.
Getty Publications, la maison d’édition de la fondation The Getty, crée une chaîne d’édition d’un nouveau genre. Constatant la nécessité de repenser les éditions numériques de leurs catalogues, la mise en œuvre de ce système de publication a une incidence sur la façon, plus globale, de faire des livres, quelle que soit leur forme.
Distill est une revue scientifique dans le domaine du machine learning, uniquement en version numérique, intégrant des schémas interactifs et versionnant les sources des articles. Cette revue répond à des besoins très contemporains – en termes d’accès ou de fonctionnement – tout en posant un certain nombre de questions dans le champ de la publication académique.
Sans ces réalisations ou expérimentations, ce mémoire n’aurait pas lieu d’être : nous ne faisons ici que détailler des initiatives pionnières et, d’une certaine façon, théoriser des applications pratiques qui répondent à des besoins variés. Comme pour la première partie, ces matériaux font partie intégrante du mémoire et ne sont pas placés en annexe, proposant ainsi une forme originale. Ces analyses de cas, avec les textes étudiés en première partie, représentent le socle d’une réflexion développée dans la troisième partie.
2.1. O’Reilly
O’Reilly Media est une maison d’édition, fondée par Tim O’Reilly, qui publie des livres sur l’informatique depuis la fin des années 1970. Tim O’Reilly est un auteur, éditeur et entrepreneur américain d’origine irlandaise, il est notamment connu comme défenseur de l’open source ou encore comme figure du domaine des nouvelles technologies en Californie. Il s’est fait connaître notamment dans le domaine des sciences de l’information avec le concept de « web 2.0 ». O’Reilly Media est devenue un acteur incontournable du milieu technologique international – dont la Silicon Valley est l’une des incarnations la plus forte –, à travers des publications, des conférences, des vidéos, des cours en ligne, des sites web, des expérimentations, etc. Producteur et diffuseur de savoir dans les domaines de l’informatique, du numérique, du Web et des technologies émergentes, les livres ne sont plus l’objet unique de cet éditeur singulier, ils sont le point de départ vers de nombreux produits pédagogiques destinés à des professionnels.

L’ambition d’O’Reilly est de réunir un ensemble de références autour du savoir numérique. Par son caractère ouvert, horizontal et global, cette entreprise pourrait être qualifiée d’encyclopédie 2.0 – Tim O’Reilly a diffusé le concept de web 2.0 inventé par Dale Dougherty en 2003, concept qui a marqué la décennie 2000. Les outils d’édition d’O’Reilly Media sont forcément influencés par cet univers technique et technophile : publier des livres sur l’informatique implique de choisir ses modes de publication avec soin, et même d’intégrer la question de la technique dans la façon de faire les livres, et pas uniquement dans les contenus. En une trentaine d’années, O’Reilly a développé une série d’outils et de méthodes pour créer des livres, les publier et les diffuser.
2.1.1. Fluidifier les échanges
En termes d’échanges avec les auteurs, O’Reilly a très tôt ouvert la possibilité d’intégrer dans son workflow différents formats : Word ou OpenOffice avec une certaine feuille de style, mais également des formats plus utilisés par les communautés techniques comme LaTeX ou HTML par exemple. Il s’agit d’une démarche d’ouverture, ainsi que d’une volonté de rendre cohérente l’activité de publication avec le sujet des livres édités, tout en prenant soin des auteurs.
Pour fabriquer ses livres O’Reilly utilise le format XML, ce format permet une structuration fine des contenus, et il est souvent accompagné d’une DTD, définition de type de document. O’Reilly a fait le choix de DocBook (http://docbook.org) pour sa DTD, dont il est l’un des créateurs et mainteneurs. DocBook est pensé pour les contenus à caractère technique, il permet notamment une gestion des formules mathématiques et du code informatique dans les publications. XML DocBook est le point de départ pour la génération de différents formats : EPUB pour les livres numériques, PDF pour une consultation numérique, des fichiers HTML pour les versions web, et une intégration dans InDesign pour l’impression papier. En plus de sa fonction pivot, XML DocBook peut être utilisé par les auteurs lors de l’écriture, avec un éditeur XML adapté. Cette DTD est aussi puissante que complexe, c’est probablement pour cette raison qu’elle est peu utilisée lors de l’étape d’écriture. AsciiDoc (http://asciidoc.org) a été conçu pour remédier à cela, c’est à la fois un langage de balisage léger et une chaîne de publication, AsciiDoc est un héritier de DocBook : conversion au format .adoc en HTML, en XML DocBook évidemment, mais également en .odt, en EPUB ou en PDF. Plusieurs livres publiés par O’Reilly Media ont été écrits avec AsciiDoc.
La recherche d’un format pivot a comme objectif de fluidifier les échanges entre auteurs, éditeurs et les autres acteurs de la chaîne d’édition. Grâce à cela O’Reilly Media peut faciliter l’écriture, faciliter la génération des formats, mais surtout gagner un temps précieux pour se concentrer sur les contenus, et pour réduire les coûts de production des livres.
2.1.2. Évangéliser autour de standards
Si O’Reilly soutient le schéma DocBook par son implication dans le maintien du format et à travers la publication d’un guide professionnel (Hamilton, 2010), la limite de ce format XML est sa complexité intrinsèque, et le manque d’adhésion qu’il a suscité. Avec HTMLBook (https://oreillymedia.github.io/HTMLBook/), un format basé sur HTML5, O’Reilly entend pérenniser un standard pour la publication, et augmenter la visibilité d’un tel format.
Les recherches d’O’Reilly sur les outils de publication ne concernent pas que ses propres intérêts : il s’agit également d’accompagner d’autres maisons d’édition et de réfléchir à leurs outils et leurs méthodes de publication. Dès 2007 O’Reilly Media initie Tools of Change for Publishing – ou TOC –, une série de conférences à fréquence et localisations variables. Le site web Tools of Change for Publishing est toujours consultable et contient de nombreux contenus (http://toc.oreilly.com). En quelques années TOC est devenu l’événement incontournable pour le milieu de l’édition et du livre numérique. Retours d’expérience, démonstrations d’expérimentations, ateliers, débats, TOC a permis à une industrie de se réunir, d’échanger, et de s’affirmer au moment de l’émergence et du déploiement du livre numérique aux États-Unis et en Europe. Observatoire idéal pour O’Reilly Media, certaines évolutions de ses outils de publication ont peut-être bénéficié de ces rencontres et présentations.

En faisant le choix d’un format plus pérenne et mieux accepté par la communauté, et en organisant un événement central, O’Reilly a réellement enclenché une évangélisation autour des outils de publication – le terme évangélisation est volontairement utilisé ici pour signaler la position hégémonique qu’occupe O’Reilly dans le domaine de l’édition technique.
2.1.3. Au-delà du texte
En 2001 O’Reilly ouvre la plate-forme Safari Books Online, en collaboration avec Pearson Technology Group jusqu’en 2004 (« Safari Books Online », 2018). Bibliothèque numérique, Safari regroupe des livres numériques d’O’Reilly, des publications d’autres éditeurs des domaines de l’informatique et du numérique, et des vidéos. En 2013 O’Reilly communique sur Atlas, une plate-forme d’édition, d’abord conçue pour créer des livres numériques. Atlas réunit plusieurs composants déjà utilisés par la maison d’édition : HTMLBook que nous avons déjà évoqué, ou Git qui est un logiciel de gestion de versions largement utilisé dans le domaine informatique. D’un côté Atlas pour faciliter l’écriture et l’édition, de l’autre Safari pour diffuser et commercialiser. Le choix récent d’O’Reilly d’arrêter de vendre des livres au format numérique à l’unité (Fomook, 2017) rentre pleinement dans cette stratégie d’efficacité et d’économie : privilégier un seul canal de distribution et limiter les coûts.

Le livre n’est qu’une porte d’entrée vers d’autres formes d’accès, l’objectif final est bien la diffusion d’un savoir technique : toute la chaîne de production et de diffusion est pensée pour proposer l’expérience la plus adaptée. O’Reilly a très vite envisagé son activité de publication et de diffusion au-delà du texte, notamment parce que l’abonnement à des cours en ligne représente une rentabilité plus importante que la vente de livres papier, d’autant plus si les vidéos s’appuient sur les livres. Les choix techniques sont intrinsèquement liés au texte et au livre, gérés comme du code : mise en place d’un standard pour structurer les contenus, outil de version pour manipuler du texte à plusieurs, facilités de mise à jour, etc.
Nous pouvons supposer que cette organisation – des standards pour structurer les contenus et pour gérer le texte, et le développement de plates-formes pour maîtriser chaque étape de la chaîne d’édition – a été mise en place pour trois raisons : offrir une forte visibilité des contenus au-delà du format livre avec Safari Books Online ; accroître la rentabilité en industrialisant la chaîne de publication dans une recherche d’efficacité maximale, avec la plate-forme Atlas ; bâtir une cohérence entre l’activité de publication et le domaine d’édition, l’informatique. O’Reilly Media est un exemple caractéristique de l’enjeu et de la complexité des questions et des choix techniques dans une activité de publication, ainsi que de l’évolution des processus d’édition.
2.2. Getty Publications
En 2016 le département numérique de Getty Publications, la maison d’édition du musée américain The Getty, a mis en place une chaîne de publication numérique originale nommée « Quire », qui repose sur un générateur de site statique. L’originalité de cette initiative dans un paysage éditorial relativement classique est une des motivations de ce projet (Evan Lan, 2016), avant tout pensé pour permettre une pérennité et une maintenabilité des versions numériques, et offrir une meilleure expérience de lecture numérique. En creux apparaît l’interrogation suivante : comment concevoir et produire des livres autrement que par le biais de logiciels de traitement de texte et de publication assistée par ordinateur ?
2.2.1. Pérennité, résilience et qualité
Il y a plusieurs constats à l’origine de la mise en place de la chaîne de publication numérique de Getty Publications (Gardner, 2017), constats qui peuvent être partagés par de nombreuses maisons d’édition. Tout d’abord, et cela est d’autant plus vrai dans le domaine du patrimoine, les sources d’une publication numérique doivent être pérennes, ce qui comprend la consultation et l’exploitation des données pendant plusieurs années ou dizaines d’années. Dans le même esprit, le système qui gère ces fichiers et qui produit les publications numériques doit être facilement maintenable. Nous pouvons parler ici de résilience, en tant que faculté de résistance et d’adaptation de systèmes aux évolutions numériques – standards, formats, environnements informatiques. Autre constat : une dépendance à des logiciels fermés, et dont l’évolution n’est pas contrôlée, peut se révéler critique. Cette situation oblige ses utilisateurs à construire leur workflow sur des éléments contrôlés par d’autres. Enfin, comme pour les livres imprimés, la qualité des publications numériques doit être une priorité. Certains logiciels ne permettent pas des résultats satisfaisants en termes de design – nous pouvons évoquer l’export EPUB d’InDesign qui générait beaucoup d’erreurs il y a encore peu de temps, ou l’incapacité de ce logiciel de produire la version web d’un ouvrage. Dans le cas de l’édition numérique, le recours à des outils comme des traitements de texte classiques ou des logiciels de PAO peut être contourné, mais encore faut-il trouver le bon outil, ou plutôt le bon processus : un ensemble de méthodes et une association de dispositifs.
2.2.2. Générateur de site statique
La brillante idée d’Eric Gardner de Getty Publications a été de détourner un outil déjà existant : un générateur de site statique (Gardner, 2015). Un générateur de site statique présente plusieurs avantages par rapport aux systèmes classiques de gestion de contenu : il est conçu pour générer un ensemble de pages web organisées – des fichiers HTML, CSS et JavaScript – à partir de contenus décrits dans un langage de balisage léger comme Markdown, et de métadonnées indiquées dans ces mêmes pages ou dans des fichiers indépendants souvent au format YAML. Tous les fichiers sont à plat : il n’y a pas de base de données. L’édition de contenus est simple, l’outil peut être facilement modifié, et la même source est utilisée pendant tout le processus – de l’écriture à l’édition jusqu’à la publication. Un static site generator est pensé comme un programme, et bien souvent géré de la même façon, avec un logiciel de gestion de versions. Ce dernier offre la possibilité de travailler à plusieurs sur des fichiers texte – cela fonctionne donc autant avec du code que du texte. Git est l’un des plus utilisé, démocratisé par la plate-forme GitHub.
Eric Gardner s’est servi de Middleman puis de Hugo, deux générateurs de site statique, pour gérer et produire des publications numériques et des ouvrages imprimés, avec pour objectif la résolution des trois contraintes présentées ci-dessus – pérennité des fichiers sources, indépendance du système, qualité des objets numériques. La pérennité est permise par un système qui repose sur des standards et des formats ouverts : Markdown, YAML, HTML, CSS, Git. Il existe de nombreux générateurs de site statique, leur code est open source, et il est relativement simple de changer d’outil, ou en tout cas cela est techniquement possible, il y a donc une forme d’indépendance. Enfin, la qualité des productions ne dépend pas de l’outil mais de la façon dont il est configuré, avec un fonctionnement plus proche du webdesign que d’un logiciel propriétaire. La production d’un site web, d’un fichier PDF et d’un livre numérique au format EPUB se fait avec un workflow unique et à partir d’une même source. Même si cette chaîne de publication s’inspire d’autres initiatives dont O’Reilly Media, il faut noter le caractère original et innovant d’une telle entreprise, d’autant plus dans un milieu comme l’édition, dans lequel le temps manque pour expérimenter et changer des habitudes bien ancrées.
2.2.3. Investissement et formation
Cette chaîne de publication présente un coût humain non négligeable : plusieurs mois de recherche et développement, et de formation pour les membres de l’équipe – notamment quelques jours pour apprendre à maîtriser le langage de balisage léger Markdown et le système de gestion de versions Git. Le mouvement d’apprentissage est double : il s’agit autant d’apprendre de nouvelles méthodes que de désapprendre le recours à des logiciels classiques. Parce qu’InDesign intègre la pré-visualisation, chaque action sur les contenus ou sur la mise en forme est immédiatement visible, ce qui crée par ailleurs une confusion entre la structure et son rendu graphique. Avec le worflow de Getty Publications l’aperçu du rendu n’est pas forcément omniprésent, ce qui permet de se concentrer sur une opération qui ne concerne pas la mise en forme : les contenus. Par ailleurs si l’édition de fichiers Markdown reste relativement simple, l’utilisation de Git requiert plus de temps, avec des subtilités parfois complexes qui nécessitent de l’accompagnement et de la pratique. Intégrer une nouvelle approche des processus techniques d’édition, plus proche du développement web, est une action plus aisée si un designer-développeur fait partie de l’équipe, et c’est le cas pour le département numérique de Getty Publications.
Nous pourrions soumettre une limite à ce modèle basé sur un langage de balisage léger comme Markdown et sur le format YAML pour les métadonnées : le texte ne peut pas être structuré d’une façon aussi précise qu’avec le schéma XML TEI par exemple. Il nous faudrait probablement définir, à partir du projet de chaîne de publication de Getty Publications, les cas d’usage qui semblent les plus appropriés ou recommandables. Toutefois Markdown peut intégrer des éléments en HTML, ainsi ce langage de balisage léger très simple d’utilisation pourrait devenir beaucoup plus puissant en termes de description sémantique avec des compléments en HTML.

En comparaison, la maîtrise de Word, InDesign, ou tout autre logiciel de traitement de texte ou de publication assistée par ordinateur présente également un temps d’apprentissage relativement long, mais il s’agit rarement d’un investissement sur le long terme : savoir utiliser une UI – user interface ou interface utilisateur – se limite souvent à une interface et non à une autre. La pratique de langages de balisage léger ou la connaissance d’un système de versions peut être réutilisée dans d’autres situations, avec d’autres chaînes d’édition ou dans d’autres domaines : développement logiciel, développement web, systèmes complexes de traduction ou de révision avec plusieurs équipes, etc.
2.2.4. Prouesse technique
Cette chaîne de publication entend résoudre de nombreux défis : fluidifier les processus de conception et de production, faciliter l’intervention d’acteurs divers de la maison d’édition durant les différentes phases, rendre la chaîne maintenable dans le temps, ne pas dépendre de logiciels dont l’évolution est incertaine, et permettre une longévité en termes d’accès aux fichiers, avec des formats pérennes. Plusieurs livres ont été créés de cette façon, ils sont consultables en ligne ou téléchargeables dans plusieurs formats (http://www.getty.edu/publications/digital/digitalpubs.html).

Il est certain que la mise en place et la prise en main d’une telle chaîne de publication n’est pas à la portée de toutes les équipes, pour des raisons de temps : en développement, en adaptation, et en apprentissage. Eric Gardner l’a signalé lui-même dans un entretien (Gardner, 2017), certaines parties de cette chaîne de publication sont particulièrement élaborées. Par exemple il faudrait utiliser et/ou créer des interfaces facilitant l’usage de Git, de la même façon que certains éditeurs de texte donnent un rendu de Markdown plus compréhensible que d’autres. Un tel chantier pourrait par ailleurs être mutualisé entre maisons d’édition d’un même domaine éditorial.
D’autres structures d’édition, notamment dans le secteur du patrimoine culturel et artistique, pourraient adopter le même type de workflow. Les questions de création de briques logiciels, de formations, de diffusion de documentations et de visibilité pourraient être développées à plusieurs, renforçant ainsi le concept d’une telle chaîne par différents modes d’application. L’équipe de Getty Publications tente déjà de faire cela avec une description des outils et méthodes utilisés (http://www.getty.edu/publications/digital/platforms-tools.html), des articles, des vidéos et des interventions. Il faut noter que l’équipe du département numérique de Getty Publications réalise actuellement une documentation de Quire sur la plate-forme GitHub pour permettre sa diffusion (https://github.com/gettypubs/quire).
Véritable progrès technique, cette chaîne de publication reste pour le moment une expérimentation isolée qui ouvre pourtant des perspectives nouvelles pour des secteurs comme celui de The Getty, le patrimoine culturel, mais probablement aussi pour de nombreux autres champs. Alternative à des logiciels fermés et nouvelle méthode de collaboration éditoriale, cette chaîne de publication mérite d’être connue, expérimentée et diffusée.
2.3. Distill
Distill, ou Distill.pub, fait son apparition en 2017 dans le domaine de la recherche en machine learning – ou apprentissage automatique en français. Cette revue académique, qui présente des recherches et des résultats en intelligence artificielle uniquement en version web, est créée dans un paysage particulier. Le domaine du machine learning semble souffrir d’un manque d’articles de bonne qualité en termes de démonstration, de rédaction et de présentation. Distill entend réduire la dette produite par les trop nombreux articles de mauvaise qualité – toujours sur le plan de la communication (Olah & Carter, 2017).
2.3.1. Une revue originale
La principale originalité de la revue Distill est de proposer une version web intégrant des schémas interactifs. Ici pas de format PDF figé et souvent peu propice à comprendre des concepts basés sur des éléments dynamiques. L’édition universitaire est encore dominée par des schémas qui ne correspondent plus à l’environnement numérique dans lequel nous vivons : l’imprimé reste la norme alors qu’un soin particulier serait nécessaire pour permettre aux versions numériques d’être lisibles (Masure, 2018). Chaque schéma ou diagramme des papiers de Distill est interactif : les données peuvent être modifiées pour visualiser directement des résultats de recherche. En modifiant ces paramètres le lecteur est plus à même de comprendre les raisonnements des chercheurs, de se les approprier, et de chercher un peu, à son échelle. Ces outils ont même une nouvelle vertu : vulgariser la recherche scientifique. Sur ce point il ne faut pas oublier quel est le sujet de la revue – l’intelligence artificielle – et quel organisme porte le projet – Google Brain. Les enjeux de la diffusion et de l’image sont essentielles.

2.3.2. Nativement numérique
Chaque article est donc lisible directement en ligne : la revue est nativement numérique et même disponible uniquement sous cette forme. Nous sommes ici dans un modèle dit de l’Open Access, puisque les contenus sont librement consultables, placés sous licence Creative Commons BY18 et référencés avec un identifiant DOI. Et, précision importante en termes d’accès, il n’est pas nécessaire de télécharger un fichier au format PDF pour consulter un article complet. Les lecteurs ont simplement besoin d’une connexion internet et d’un navigateur web pour lire Distill. Ce dernier point est primordial en termes de diffusion de la connaissance.
La disponibilité en ligne et les schémas interactifs ne sont pas les seuls caractères qui font de cette revue un objet résolument numérique. Plusieurs fonctionnalités viennent s’ajouter aux questions d’accès et de visualisation :
- chaque article est une page web qui comporte des métadonnées très riches, permettant à la fois un référencement mais aussi une intégration dans des outils de gestion bibliographique comme Zotero (Fauchié, 2018) ;
- toujours sur ces enjeux de métadonnées, des indications figurent à la fin de chaque article pour les citer correctement, avec en notice une notice BibTeX ;
- les notes et références apparaissent au passage du curseur, tout en étant disponibles en bas de page, ce qui facilite la lecture.
Le texte se mêle à des graphiques dont les variables peuvent être modifiées, les lecteurs ne sont plus passifs mais ont la possibilité de manipuler l’objet des recherches exposées dans les articles. En plus de faciliter la lecture, les sources des articles de Distill sont disponibles sur un dépôt GitHub (https://github.com/distillpub/). Chaque papier est ainsi constitué d’un ensemble de fichiers – dont du HTML pour le texte – mis à disposition publiquement.

2.3.3. Versionner les contenus
Pourquoi rendre accessibles les sources des articles ? Pour deux raisons : probablement dans l’optique de montrer les dessous de la recherche, plutôt à des fins pédagogiques que de transparence ; certainement pour versionner les contenus et donner à voir l’historique des articles.
Versionner les contenus ? GitHub est une plate-forme qui héberge des projets utilisant le système de gestion de versions Git (Demaree & Brown, 2017). Chaque modification ou série de modifications fait l’objet d’un commit, et chaque commit est accompagné d’un message. À partir des commits il est ainsi très facile de voir la progression d’un projet, les phases de correction, les ajouts, etc. Git est utilisé pour gérer du code informatique, mais Git peut également permettre de versionner du texte et garder trace de modifications successives. C’est le cas de cette revue, c’est également le cas pour ce mémoire qui est versionné avec Git et disponible sur un dépôt public hébergé par GitLab19. Sur le dépôt d’un article de Distill sur GitHub, il est possible de voir les différentes modifications et les différents intervenants d’un projet. La révision des articles est publique, ce qui semble très loin des pratiques classiques dans le monde académique.

Cette façon de rendre compte d’une recherche qui se construit est nouvelle dans le domaine de la publication universitaire, ou même plus globalement pour la recherche universitaire : les sources sont mises à disposition, et l’historique des modifications est également consultable. Par ailleurs cela implique que chaque article continue de vivre même après publication : par exemple un article publié en avril 2017 peut encore avoir des modifications en mai 2018. Cette double ouverture, à la fois montrer et faire évoluer, est une influence du monde de la programmation. Prenons l’exemple d’un site web : il peut effectivement évoluer continuellement, jour après jour, tant sur les contenus que sur son architecture technique.
Distill va même jusqu’à imposer ce fonctionnement aux auteurs. Dans le cas de soumissions d’articles les auteurs doivent créer un dépôt GitHub et le proposer aux éditeurs de la revue pour commentaire et correction. Les révisions sont alors versionnées, et publiques si l’article est accepté. Enfin, Distill utilise Git et les fonctionnalités de l’écosystème de GitHub : n’importe qui peut proposer des modifications sous réserve qu’elles soient ensuite validées ; les personnes ne souhaitant pas intervenir directement peuvent ouvrir une issue – ou ticket en français – pour partager leurs remarques.

2.3.4. Un modèle bienvenu qui questionne
L’arrivée de Distill semble avoir été très bien accueillie, plusieurs articles en attestent20. Comme nous l’avons déjà dit il semble que la revue vienne combler un vrai manque dans le domaine. Par ailleurs le fonctionnement global de la revue – sources et révisions publiques, contenus versionnés, métadonnées riches – aura sans aucun doute des répercussions sur les pratiques éditoriales de certains domaines académiques, ou tout du moins nous pouvons l’espérer.
Si ce modèle original est bienvenu, il pose néanmoins un certain nombre de questions que nous allons aborder, en majorité réunies dans un article de David Rosenthal (Rosenthal, 2017). Premièrement, est-il tout de même possible de consulter les articles autrement que en ligne ? Les pages web qui constituent les articles peuvent être imprimées. L’intérêt est limité, puisque les schémas ne sont plus disponibles, mais il est possible de disposer d’une version statique et dégradée au format PDF ou sous forme imprimée. Deuxièmement, un article qui peut sans cesse être modifié peut-il être raisonnablement cité ? Comme nous l’avons exposé, les contenus de Distill peuvent connaître des évolutions même après publication. La recherche académique étant basée sur le lien entre des publications, que se passe-t-il si un article est cité puis modifié ? Est-ce que le passage de l’article ainsi modifié ne remet pas en question son lien avec l’article qui le cite ? Est-ce que l’auteur de l’article qui cite cette source ne risque pas de voir son raisonnement remis en cause ? Nous ne pouvons proposer de solution ici, si ce n’est qu’en plus de la référence bibliographique classique, la version citée pourrait être précisée, par exemple avec l’identifiant du commit correspondant[^commit-detail].
Deux questions techniques viennent s’ajouter : la pérennité et l’archivage. Comment assurer une pérennité d’accès aux articles ? Ces derniers nécessitent un serveur web et un ensemble de composants pour pouvoir être consultés. Par rapport à un fichier PDF qui ne demande que peu de contraintes techniques, comment gérer une revue comme Distill dans le temps long ? Si les versions et les échanges sont disponibles sur GitHub – sous forme de commits liés à Git mais aussi d’issues dépendantes directement de la plate-forme GitHub – que se passe-t-il si GitHub cesse ses services ? L’archivage est une problématique essentielle dans le domaine de la recherche.
Enfin apparaît en fond une question essentielle sur la légitimité de la revue : si la majorité des éditeurs sont des employés de Google, et que les principaux investissements proviennent également de cette entreprise, qu’est-ce qui peut garantir une intégrité intellectuelle à Distill ? La revue a connu une couverture médiatique notable au moment de son lancement, il semble que des moyens importants ont été placés dans la stratégie marketing.
Distill représente un nouveau modèle de publication scientifique, mêlant des visualisations interactives, proposant une lecture profondément numérique et adoptant une dimension résolument réinscriptible (Dacos, 2009). Ce modèle interroge les pratiques de publication universitaire, à la fois sur la lisibilité des résultats de la recherche, sur les façons de produire ces articles académiques et sur la manière d’inclure les différents intervenants de la recherche dans un projet commun. Envisager le versionnement pour l’édition, n’est-ce pas là l’occasion de repenser la façon de gérer la fabrication d’un texte ou d’un livre ?
3. Un système modulaire
Interroger et critiquer la technologie et plus spécifiquement les chaînes de publication classiques à l’aide de textes théoriques, puis présenter plusieurs initiatives de modèles alternatifs en ce qui concerne la fabrication de livres ou de publications, voilà l’objectif des deux premières parties de ce travail de recherche. Avant de fixer les étapes d’un processus de publication et de proposer les principes d’un nouveau modèle, revenons sur ces deux moments.
L’analyse de Post-Digital Print d’Alessandro Ludovico nous a permis de prendre la mesure de l’hybridation entre le « papier » et le « numérique ». Ces deux formes ne sont pas en opposition, des démarches éditoriales enthousiasmantes mêlant des supports imprimés et des versions numériques et présentées dans cet ouvrage le prouvent avec beaucoup d’acuité. Pour concevoir et produire ces formes plurielles il y a une nécessité de repenser les chaînes de publication, habituellement conçues pour générer des formes imprimées dont résultent des objets numériques.
Les pratiques d’édition, qu’elles produisent des publications imprimées ou des ebooks, dépendent de logiciels que l’on peut qualifier de « boîtes noires » : difficile de comprendre leur fonctionnement ou d’influer sur leur évolution. C’est, d’une certaine façon, ce qu’Evgeny Morozov nomme le « solutionnisme technologique », c’est-à-dire l’utilisation systématique de la technologie pour régler un problème sans forcément bien délimiter celui-ci. Pour tout résoudre cliquez ici apporte une critique bienvenue des usages de la technologie dans le champ social – au sens large. À partir de cela nous pouvons reconsidérer les chaînes de publication classiques pour développer de nouveaux modèles plus enclins à répondre à des contraintes bien identifiées.
Le positionnement par rapport à la technologie ou plus globalement à la technique est le sujet du texte de Gilbert Simondon, Du mode d’existence des objets techniques. La mauvaise reconnaissance de la technique induit notamment une aliénation du monde contemporain, il s’agit de mieux définir ce qu’est un « objet technique » et de développer une culture sur cette base. Ainsi, l’être humain ne doit plus être dans la machine, mais à ses côtés : au-dessous, dans la gestion d’éléments qui composent la machine, et au-dessus, dans l’orchestration de l’ensemble technique que forment ces éléments. Le progrès technique n’est alors plus cette recherche effrénée – aveugle ? – de l’innovation continue mais plutôt une évolution irrégulière et une émancipation de l’homme. Concevoir un modèle de publication dans ces conditions peut se traduire par l’utilisation des méthodes et outils du développement web, ouverts et laissant une grande place à l’humain.
Trois analyses de cas sont venues confirmer cette triple approche théorique, la première concerne le workflow de publication d’O’Reilly Media. Cette structure d’édition spécialisée dans l’informatique utilise des technologies issues de ce domaine pour fabriquer ses livres, qu’ils soient imprimés ou numériques. L’intégration du format XML, puis d’un langage de balisage léger comme AsciiDoc, a permis une meilleure prise en compte des besoins des auteurs. Par la suite cela se traduit également par la création d’une plate-forme intégrant ces technologies ainsi qu’un processus de versionnement.
Plus spécifique encore dans l’utilisation des procédés issus de l’informatique, Getty Publications détourne des dispositifs du développement web pour constituer un système de publication numérique. Le traitement de texte et le logiciel de publication assistée par ordinateur sont remplacés par un générateur de site statique produisant des fichiers HTML à partir de sources en Markdown ou YAML. Ces fichiers HTML produisent directement un site web, ou sont ensuite transformés en livre numérique ou en PDF destiné à l’impression. Cette manière de produire des publications est singulière, et connaît quelques exemples similaires dans le domaine de la documentation ou des manuels.
Enfin, la jeune revue Distill créée en 2017 propose des articles en version numérique et incluant des schémas interactifs, ce qui représente une plus value dans le champ de l’intelligence artificielle – les papiers au format PDF ne suffisant pas à comprendre des concepts complexes. En plus de placer le lecteur au même niveau que le chercheur – en lui faisant manipuler des données –, Distill met à disposition les sources des articles sur la plate-forme GitHub. Le versionnement est ainsi une composante du fonctionnement de la revue, jusque dans les conditions de soumission des articles – chaque proposition doit reprendre le modèle de la revue dans un dépôt dédié.
Nous disposons de critiques théoriques et de cas pratiques, mais sur quels principes reposent ces initiatives innovantes que peuvent être la chaîne de publication Quire ou la revue Distill ? N’y a-t-il pas, derrière les choix techniques, des fondements communs permettant de reproduire un système de publication non conventionnel ? Cette troisième partie a pour objectif d’extraire les axiomes qui constituent ces projets originaux, pour les structurer, les organiser et les présenter. Avant cela, nous exposons les différentes étapes d’une chaîne de publication, afin de bien identifier les contraintes qui devront être prises en compte dans les principes proposés. Cet exposé distingue les phases d’une activité d’édition ou de publication, telles que l’inscription d’un texte ou la mise en forme, tout en soulignant les implications et les questionnements.
3.1. Les étapes d’une chaîne de publication
Une chaîne de publication est un ensemble de méthodes et d’outils ordonnés qui remplissent des objectifs déterminés pour un projet éditorial. De la gestion d’un texte à la production d’un objet physique ou numérique, en passant par les phases de structuration, de relecture et de composition, la publication est un processus complexe constitué d’intervenants divers. Comme nous l’avons vu dans la partie 2, les initiatives originales pour concevoir, fabriquer et produire des livres existent et fonctionnent. Avant d’envisager un modèle basé sur ces initiatives, nous devons analyser et comprendre comment les chaînes d’édition dites classiques sont organisées. Au-delà de ces fonctionnements établis et observables, il nous faut extraire des pratiques actuelles les différentes étapes de publication. Nous pouvons supposer que ces étapes, extraites des procédés et des techniques, constituent un socle générique et relativement indépendant des méthodes adoptées.
L’écriture représente la colonne vertébrale d’une démarche éditoriale, mais qu’est-ce qui constitue cette étape ? Quels en sont les logiciels et les modes d’édition ? La gestion des documents est ici essentielle, elle offre un cadre pour les révisions d’un texte et pour les collaborations autour de celui-ci. Comment celle-ci est-elle actuellement établie ? La mise en forme d’un document est l’interprétation de sa structure et l’attribution de styles. Le rendu graphique est essentiel pour appréhender un texte, pour donner vie aux contenus, mais quelles sont les principales contraintes rencontrées à ce niveau par les acteurs d’un projet d’édition ? Enfin, l’acte de publication est la mise à disposition d’un livre, l’enjeu est donc d’en définir les formes, et les conditions de production de celles-ci. Un livre numérique peut-il être conçu de la même façon qu’un livre imprimé ?
L’analyse de ces phases d’édition doit prendre en compte la façon dont elles s’articulent : quelles relations existe-t-il entre deux étapes qui se succèdent ? Et surtout est-il possible de déstructurer l’ordre de ces étapes pour former un ensemble plus cohérent ? Le concept de chaîne doit-il être remis en question ?
3.1.1. Écrire et structurer
L’écriture est la première des étapes de production d’un livre, mais elle constitue aussi le fil rouge de l’activité de publication. Qu’il s’agisse de l’inscription d’une idée – le point de départ –, ou des dernières corrections avant l’impression finale, le texte est continuellement travaillé. L’écriture peut être décomposée en deux actions distinctes et complémentaires : inscrire et structurer. Inscrire pour fixer des contenus. Structurer pour distinguer les éléments qui constituent ces contenus. Les outils d’écriture permettent de réaliser ces deux opérations, imposant bien souvent une approche particulière dans leur réalisation et leur compréhension.
L’inscription d’un texte est probablement l’action la plus intégrée et la plus inconsciente de l’écriture. Et ce d’autant plus depuis la numérisation des outils de rédaction – aujourd’hui représentée par le traitement de texte, de Microsoft Word à LibreOffice Writer en passant par Pages. L’écriture manuscrite matérialise cette étape d’inscription : l’encre imprègne le papier, chaque lettre et chaque mot marquent le support physique. L’image de l’épigramme est probablement encore plus évocatrice, l’inscription étant gravure, et difficilement modifiable ou effaçable. Désormais ce sont les touches d’un clavier enfoncées ou l’effleurement d’un écran qui signifie cette inscription, ainsi que les fonctions d’enregistrement des logiciels et applications.
La structuration est une démarche à la fois plus visible et moins compréhensible dans l’acte d’écriture. Plus visible car elle revêt des caractères graphiques. Moins compréhensible car elle se limite bien souvent à cette seule dimension de mise en forme. La structuration d’un texte est la distinction des éléments qui le composent. Un texte n’est pas constitué de lettres et de mots au kilomètre, mais chaque fragment a une caractéristique propre : un titre, un paragraphe, une liste, une citation, une note, etc. Autant de composants qui constituent un ensemble logique, qui s’organisent pour donner sens. Autant de fragments, donc, qui portent des significations différentes, en dehors du contenu lui-même : le titre nomme un texte, un paragraphe développe une idée, une liste énumère avec ou sans ordre, une citation signale l’apport d’un autre texte, une note précise un point particulier, etc.
La question de la structuration est trop souvent éludée dans les pratiques d’écriture, qu’elles soient techniques, académiques ou même fictionnelles. Les textes portent alors des significations grâce à des artifices graphiques : un titre a une taille de police plus importante, une citation est mise en italique. Ces simulations visuelles limitent les compréhensions hors contexte – comme la suppression de cette mise en forme –, ou freinent les manipulations par des programmes – pour transformer un fichier dans des formats spécifiques par exemple.
Le traitement de texte est l’outil le plus utilisé pour inscrire et structurer du texte, et pourtant il conduit à un certain nombre de confusions. La première d’entre elles est la visualisation, en direct, du rendu de la mise en forme. L’utilisateur peut voir, sans attendre un quelconque processus, les styles appliqués au texte : un changement de police pour un titre ou une mise en italique d’un passage. Cette fonctionnalité est particulièrement utile pour relire un texte avec ces précieuses informations. Mais bien souvent l’intervention de l’utilisateur se limite à une application graphique sans indiquer la structure qui signifie cette mise en forme. Ensuite, si une structuration est attribuée, seul le logiciel peut la comprendre et l’interpréter. En effet dans le cas d’un traitement de texte une information concernant un niveau de titre est traduite dans un langage informatique complexe comme le XML. Ouvrir un fichier au format .docx peut s’avérer étonnant voir angoissant de complexité, quand bien même ce fichier ne comporte qu’un mot :
You can see this hidden world by creating a Pages or Word document, typing « Hello World » and saving, then changing the extension to .zip and unzipping the file. Welcome to 1979! If you are courageous enough to look inside the resulting folder, you may start wondering whether you typed « Hello World » or « Hello Hell ».
(Reichenstein, 2016).
D’un côté l’utilisateur ne sait pas forcément qu’il met en forme sans structurer, de l’autre le logiciel est le seul à comprendre parfaitement les informations de structuration.

Dans le domaine de « l’écriture scientifique » (Guichard, 2008), les pratiques liées à la structuration des contenus sont trop souvent pauvres ou réduites à des logiciels propriétaires et fermés. Le passage de l’imprimé au numérique, en ce qui concerne l’écriture, doit se faire par une maîtrise de techniques et d’outils par les chercheurs, universitaires ou enseignants eux-mêmes. « Savoir écrire est une compétence technique indispensable pour tout chercheur ou auteur en sciences humaines et sociales. » (Vitali-Rosati, 2018) Cette « compétence technique » ne doit pas être déléguée.
Le traitement de texte utilise un « mode d’édition » (Têtue, 2014) appelé WYSIWYG, pour What You See Is What You Get – ou ce que vous voyez est ce que vous obtenez, en français. Le sens n’est donc pas ici la priorité, mais plutôt le rendu graphique, l’aperçu. Le principe du WYSIWYG est également utilisé dans de nombreuses applications web, comme des systèmes de gestion de contenu permettant d’éditer des sites web ou des blogs – ou CMS pour Content Management System. Écrire avec une interface en WYSIWYG apporte nécessairement une confusion entre la structure et sa mise en forme, puisque la personne qui saisit du texte dispose d’options prioritairement visuelles. Le manque de structuration des textes n’est pas du fait des utilisateurs mais plutôt des interfaces qui leur sont proposées. Nous pouvons tout de même mentionner l’effort de certains éditeurs WYSIWYG qui proposent des options sémantiques, le problème de ces dernières étant de ne pas correspondre exactement au rendu final, créant là une certaine frustration (Schrijver, 2017). Une approche alternative, basée sur le sens, est celle du WYSIWYM, pour What You See Is What You Mean. La distinction entre le contenu et la forme est alors affirmée, et l’utilisateur comprend ce que structurer veut dire : c’est le sens même du langage HTML et de son corollaire le langage CSS.
Nouvel objet de l’ère informatique, le texte « souple » est séparé de toute représentation typographique, introduisant ainsi la notion de « flux » de texte. Il peut être représenté d’une infinité de manières, au gré des copier-coller dans de nouveaux contextes, de l’email au traitement de texte. C’est une idée fondamentale, que l’on retrouve par exemple aujourd’hui dans les pages Web, puisqu’elles sont composées à partir de deux langages distincts : les données structurées (HTML) et l’ensemble de règles qui vont venir mettre en forme ces données (CSS).
(Maudet, 2017)
Les langages de balisage léger Markdown et AsciiDoc sont une application possible du mode d’édition WYSIWYM : la structure est signalée à l’aide de quelques balises plutôt que par des éléments graphiques.
Quelques exemples pour Markdown : dans un document un titre de niveau 3 est signalé par trois dièses, ### Titre
; un passage en emphase en italique est entouré par des tirets ou des étoiles, _italique_
; une citation est indiquée par un chevron, >Une citation
.

Une autre confusion induite par les traitements de texte est la sensation de compatibilité. Aujourd’hui tous les ordinateurs sont pourvus de logiciels capables d’interpréter du .docx ou du .odt, ou en tout cas il est relativement simple d’installer des logiciels permettant cette interprétation. En tant qu’utilisateur nous n’avons pas conscience que ces fichiers ne sont lisibles facilement que dans un contexte précis et pour un temps limité. Tout d’abord selon le niveau de complexité d’un document Microsoft Word ou LibreOffice Writer, celui-ci ne s’affichera pas de la même façon selon qu’il a été créé avec Word ou LibreOffice – nous avons tous connu des mésaventures à ce sujet. Ensuite en fonction des évolutions des logiciels et des formats, il est fort probable qu’un fichier .docx de 2018 ne soit plus lisible en 2028, ou que des informations soient perdues ou difficilement extractible. Enfin, dans le cas où nous souhaiterions utiliser un autre type de logiciel, par exemple un outil de mise en page plus avancé, il y aura un problème de compatibilité : le nouveau logiciel n’est pas en mesure de prendre en compte toutes les propriétés du précédent. Dans les domaines de l’édition technique, de la publication universitaire ou plus globalement de la non-fiction, l’interopérabilité est une nécessité. En tant qu’utilisateur nous devons comprendre que le texte que nous inscrivons a également une structure. Et nous devons pouvoir intervenir sur celle-ci. Nos pratiques d’écriture ne doivent pas être dictées par des logiciels :
Les traitements de texte développent cette pensée à partir de présupposés implicites qui apparaissent comme autant d’enthymèmes. En utilisant un traitement de texte, nous admettons un certain nombre de leurs prémisses.
(Dehut, 2018)
Écrire, en tant qu’étape d’un processus de publication, est donc contraint par les outils que nous utilisons, mais aussi indirectement par les modes d’édition de ces outils. Si le besoin d’interface est indéniable pour faciliter l’édition de contenus, celui de revenir au texte l’est également (Fauchié & Parisot, s. d.), pour mieux saisir les enjeux sémantiques des documents, des publications et des livres. Les traitements de texte, auxquels nous souhaitons ici trouver des alternatives, portent également des promesses de collaboration, en plus de l’écriture au sens d’inscription et de structuration comme nous venons de l’exposer. Nous allons désormais explorer ces fonctions de partage, de collaboration et de validation des textes.
3.1.2. Partager, collaborer et valider
L’écriture n’est pas seulement une étape dans un processus d’édition, mais une action qui se répète pendant toute la chaîne de publication : inscription, structuration, mais aussi correction et validation sont autant de phases qui se suivent et se superposent. Pour permettre à différentes personnes d’intervenir sur un texte, et ce à plusieurs reprises, divers moyens sont mis en œuvre. De la numérotation à un procédé basé sur les versions, des outils bureautiques fermés aux plates-formes prétendument faciles d’utilisation, nous étudions les différentes façons de travailler sur un texte.
Dans un environnement numérique, revenir sur un texte nécessite tout d’abord de le nommer.
Deux méthodes sont communément utilisées pour faire apparaître cette information dans le nom du fichier informatique : la numérotation incrémentale – chaque nouvelle version est désignée avec un chiffre supérieur à la précédente – ou la date d’édition.
Les deux peuvent également être mixées.
Il est fréquent de travailler avec des fichiers tel que chapitre-01-v14-2017-06-17.doc
, voir même chapitre-01-v14-relecture-antoine-2017-06-17.doc
, car il ne s’agit pas de prendre en compte uniquement les versions successives d’un même auteur ou d’un même relecteur, mais d’identifier en plus les actions sur le texte.
Ici antoine
est probablement un relecteur comme en atteste la mention relecture
.
Nous pouvons donc identifier trois informations distinctes :
- le numéro de la version ;
- l’action sur le texte ;
- la personne qui est intervenue sur le fichier.
Vient ensuite la question de l’échange et du partage des fichiers. Comment mettre à disposition un texte pour qu’un correcteur le relise, ou qu’un éditeur le valide ? Si les intervenants d’un projet éditorial – qu’il s’agisse d’un essai, d’un roman ou plus globalement d’un document – sont réunis dans un même espace physique, des solutions de mise en réseau existent : Intranet, serveur partagé ou NAS. Dans le cas où les personnes sont éloignées, des outils de partage de documents peuvent être utilisés, comme le très populaire Dropbox. Enfin des dispositifs d’édition en ligne sont utilisées de plus en plus massivement, le cas de Google Drive est emblématique. Pourtant la messagerie électronique semble être le choix par défaut : les fichiers s’échangent par messages successifs, plutôt que d’être mis en commun. Cela peut s’expliquer assez facilement : le mail est, avec les outils bureautiques comme le traitement de texte, l’un des instruments les plus répandus. Et le travail à distance avec l’usage de terminaux informatiques nomades – comme l’ordinateur portable – obligent à ne pas dépendre d’une infrastructure uniquement locale. Si cette méthode de la numérotation successive et de l’échange par courrier électronique est compréhensible par toutes et tous – et notamment par des auteurs qui ne sont pas des techniciens de l’édition –, elle pose un certain nombre de problèmes. Chaque nouvelle version écrase la précédente (Fauchié, 2018), et la gestion des messages successifs devient rapidement complexe à gérer : toutes les remarques sont dispersées dans des mails et dans des fichiers éclatés.
Comme évoqué ci-dessus, des solutions d’édition en ligne existent, et semblent résoudre cette difficulté d’administration des versions. Que ce soit un pad ou un document Google Docs, les modes de fonctionnement de cette – relative – nouvelle approche sont divers. Par ailleurs ces deux exemples sont représentatifs de ce que l’on appelle l’informatique dans les nuages (Figer, 2009) : plus besoin d’installer un logiciel sur son poste informatique, l’accès se fait directement en ligne. En plus de Drive – outil de synchronisation de fichiers –, Google propose des outils bureautiques en ligne sous l’appellation Google Docs, utilisables avec un simple navigateur web. L’édition simultanée à plusieurs est possible, comprenant des fonctionnalités de commentaires et de versionnement basiques. Si la bureautique en ligne semble pertinente pour résoudre les problèmes liés à l’édition à plusieurs, elle présente plusieurs limites :
- la structuration est possible, comme avec un traitement de texte, mais avec un périmètre réduit. De la même façon la mise en forme – et donc les feuilles de style – n’ont pas d’options très avancées ;
- ces plates-formes sont des silos hermétiques : l’accès et les sauvegardes dépendent de Google et de ses infrastructures. Les discontinuités de service sont rares mais présentent un risque non négligeable de rupture de chaîne ou de perte de documents ;
- le mode d’édition est en WYSIWYG, avec les contraintes exposées plus haut dans la partie 3.1.1.

Le pad est un éditeur de texte collaboratif en ligne21, où chaque modification est visible en direct. Les interventions des utilisateurs sont différenciées par des couleurs, ce qui donne des résultats visuellement étonnants – une même phrase pouvant être littéralement et graphiquement multicolore en raison du nombre de modifications. Les options de structuration et de mise en forme sont relativement limitées, mais des fonctions d’export existent dans divers formats. Le pad n’est pas tout à fait un WYSIWYG, dans le sens où le style ne peut pas être modifié – pour le dire autrement il n’y a qu’une façon de voir la structuration, contrairement à un traitement de texte. Le pad est un outil souvent utilisé dans des phases d’amorçage d’un projet d’écriture, il permet de réunir des contributions, mais sa simplicité freine des usages plus avancés : relectures, annotations, mise en forme, etc.

L’indication de la version, de l’intervenant et de l’action, mais également la mise à disposition du texte et la réunion des différentes interventions paraissent complexes à contrôler. Un système de gestion de versions, offrant la possibilité d’identifier les intervenants et les interventions, de fusionner ces dernières, et de se connecter à des outils d’écriture, serait là une solution. Mais avant d’envisager de telles alternatives, examinons la prochaine étape d’édition qui consiste en la mise en forme d’un texte.
3.1.3. Mettre en forme
Inscrire, structurer, collaborer, corriger, valider, autant d’actions qui concernent le texte et sa structure sans pour autant prendre en compte la forme de celui-ci – hormis des aperçus transitoires. La mise en forme d’un document est en soi une étape dans le processus de publication, elle intervient classiquement après les phases de relecture et d’amendement d’un texte. Elle favorise la compréhension de celui-ci, elle guide l’utilisateur dans sa lecture. Pourtant elle est encore trop souvent l’objet d’une confusion avec le contenu, et aujourd’hui elle rencontre des difficultés pour s’adapter aux nombreuses formes que peut prendre le livre.
La mise en forme prolonge l’agencement de la structure du texte, elle est plus spécifiquement l’habillement du livre (Tschichold & Paris, 2011). Chaque élément est qualifié lors de la phase de structuration : un titre, un paragraphe, une liste, une citation, etc. À cette information qualifiée nous pouvons ensuite attribuer un style : pour un titre de niveau deux un ensemble de caractéristiques graphiques sont données, comme la police de caractère typographique, la taille de cette police, la couleur du texte, l’alignement, etc. Ces spécificités visuelles doivent traduire le sens porté par la structure, et parfois une hiérarchie dans l’ordonnancement des contenus : un titre est mis en avant d’une façon plus conséquente qu’un paragraphe par exemple. C’est là toute la force d’une séparation distincte entre la structure et la mise en forme, cette dernière peut être modifiée à loisir sans avoir d’incidence sur le contenu. Pourtant, il faut bien le souligner, les designers graphiques qui interviennent à ce moment sont parfois obligés d’ajouter une couche de structuration, le document n’étant pas assez riche sémantiquement pour pouvoir simplement se voir attribuer une feuille de style. La faible structuration d’un document ou le manque de communication entre celui qui écrit et celui qui met en forme en sont les principales raisons.
Pour définir un graphisme et l’appliquer à une publication, le designer dispose d’un logiciel de publication assistée par ordinateur – plus communément appelé logiciel de PAO. Dans ce secteur Adobe a une position de leader avec le logiciel InDesign. Cet outil « est conçu pour servir de façon satisfaisante le créatif » (Masure, 2011) : toutes les options d’édition sont optimisées, l’interface est pensée pour faciliter chaque action. Les possibilités créatives se font au dépend de la structuration, l’attribution d’une sémantique étant décorrélée de l’agencement graphique : ces deux phases sont hermétiques. Par ailleurs le logiciel qu’est InDesign pose deux problèmes :
- l’action de son utilisateur est limitée à une maîtrise de l’outil plutôt qu’à une maîtrise d’une activité : créer un rendu graphique et l’appliquer et non seulement activer des fonctions – aussi complexes soient-elles ;
- InDesign est à ce point répandu que la question de l’uniformisation des pratiques peut être posée : si un corps de métier utilise un même outil, cela ne crée-t-il pas des gestes ressemblants ?
Cette phase d’orchestration graphique se base donc sur des opérations d’inscription, de structuration et de révision. Jusqu’ici il est possible de travailler sur des versions successives d’un même fichier. Cette nouvelle étape vient interrompre cette continuité, en effet les logiciels de PAO, et plus particulièrement le logiciel InDesign, ont leur propre format. La chaîne d’édition classique connaît donc une rupture dans son fonctionnement :
- le format n’est plus le même – d’un .doc à un .indd par exemple –, et ce changement implique un problème d’accès aux contenus pour les intervenants d’un projet : un auteur qui ne dispose pas du logiciel de PAO utilisé dans la chaîne par un graphiste ne peut pas lire le fichier ;
- cette nouvelle étape est définitive (Fauchié, 2018), puisqu’il n’est pas possible pour d’autres personnes que le ou la graphiste d’opérer sur le fichier, comme précisé plus avant. Certes des corrections sur le texte sont toujours possibles, mais dépendent des personnes disposant et maîtrisant le logiciel de PAO ;
- l’interopérabilité est donc inexistante, puisqu’il n’est pas possible de travailler avec une même source (Blanc & Fauchié, 2017).
Il nous faut préciser un point important : la typographie, au sens de la composition d’un texte, est un travail qui requiert des compétences précises. L’application de règles élaborées et nombreuses – gestion des insécables et des césures, justification ou gestion des drapeaux, gestion des blancs, etc. – nécessite un outil lui aussi complexe, et puissant. L’hégémonie de certains logiciels dans le domaine de la mise en page n’est donc pas due uniquement à la volonté d’une entreprise – Adobe pour la citer – ou au manque de connaissance de ces praticiens, mais plutôt à la complexité inhérente de cette action. Des alternatives émergent, mais avant de les découvrir nous allons nous concentrer sur la production des formes d’un document ou d’un livre : leur diversité ne présente-t-elle pas un nouveau défi pour celles et ceux qui les orchestrent ?
3.1.4. Générer les formes et formats, publier
Écrire et manier un texte, mettre en forme un document, envisager un livre. Une chaîne de publication se constitue autour d’un objectif clair : mettre à disposition une pensée, une réflexion, une histoire. Avant de rendre public un livre, de le publier, il faut considérer les formes qu’il peut prendre. Celles-ci sont elles-mêmes liées aux enjeux de diffusion et de distribution : où sera accessible le livre ? À quelles conditions ? Pour quelles situations de lecture ? Le livre imprimé n’est plus le seul résultat permettant de consulter des contenus organisés, et le livre numérique ne peut pas être la seule émanation numérique. Mais alors, quelles contraintes imposent ces nouvelles expressions du livre à la fois pour celles et ceux qui les produisent, mais également pour celles et ceux qui les conçoivent ?
« L’édition peut être comprise comme un processus de médiation qui permet à un contenu d’exister et d’être accessible. » (Epron & Vitali-Rosati, 2018) La publication ou l’édition consiste donc à produire une forme tangible qui peut être consultée, cette production désignant – peut-être maladroitement – l’ensemble des étapes déjà décrites ici. Cet acte de mise à disposition ne peut pas être déconnecté des questions de diffusion, de distribution et de formes : si une publication académique est diffusée sur une plate-forme qui regroupe d’autres revues ou livres, le format produit ne peut pas être seulement un PDF destiné à l’impression. Une version sémantiquement riche au format XML est probablement nécessaire pour palier aux limites d’un format figé comme le PDF.
Le codex, la matérialisation du livre que nous connaissons et pratiquons depuis plus de deux mille ans, est à la fois une évolution technologique majeure de notre civilisation, et un objet en mouvement. Depuis l’invention de l’imprimerie avec la presse à caractères mobiles de Gutenberg (Jampolsky, 2017), jusqu’aux expérimentations récentes autour de l’enrichissement des supports physiques à l’aide du numérique, le livre est loin d’être immobile. Comme nous avons pu le voir dans la première partie, Alessandro Ludovico présente de nombreux exemples de projets éditoriaux alternatifs (Ludovico & Cramer, 2016), considérant l’édition dans son acception large – presse, magazine, livre, etc. Ce que nous pouvons retenir de ce panorama, c’est que le « processus de médiation » (Epron & Vitali-Rosati, 2018) qu’est l’édition prend désormais de nombreuses formes : impression au format poche peu coûteuse, diffusion sur Internet, version imprimée luxueuse, etc.
Avant d’aborder la question du livre numérique, intéressons-nous à un procédé qui semble bouleverser le monde du livre et plus particulièrement l’édition : l’impression à la demande – ou POD pour Print On Demand en anglais. Cette technique consiste en la fabrication rapide de livres à l’unité, et non plus dans une logique de « tirage » qui représente des coûts importants (André, 2009). Il s’agit à la fois d’une évolution technique d’impression, mais surtout d’une nouvelle organisation pour les éditeurs et les imprimeurs. L’impression à la demande restreint fortement les questions d’investissement et de temps : l’éditeur n’est plus dans l’obligation d’investir pour obtenir un minimum de 500 exemplaires en impression offset et de gérer ensuite un stock, et l’imprimeur est en mesure de fabriquer un livre en quelques minutes. Le lecteur, lui, peut obtenir un ouvrage – commande, fabrication et livraison comprises – en quelques jours. Basée sur la technique d’impression numérique, la POD nécessite une infrastructure technique et logistique capable de gérer un catalogue, de fabriquer ces livres, et de les expédier. L’impression à la demande nécessite des réglages spécifiques pour la génération d’un format PDF, et est peut-être, dans la gestion du processus, le résultat le plus visible du numérique dans la chaîne d’édition. La POD est l’objet d’autres questionnements, notamment les questions de droits d’auteur, de diffusion, et d’effort de médiation de la part de l’éditeur (Bon, 2016).
Le livre numérique a été, depuis 2006, le principal candidat comme remplaçant du livre imprimé, et un espoir d’essor économique pour les éditeurs (Benhamou, 2014). Et par « livre numérique » il faut comprendre « livre numérique homothétique », c’est-à-dire un fichier EPUB qui a les mêmes propriétés qu’un livre imprimé : l’organisation en chapitres, un sommaire ou une table des matières, et peu d’enrichissements en dehors des propriétés du dispositif de lecture numérique. Le format standardisé et ouvert EPUB a été, dans ce contexte, le moyen de vendre des fichiers numériques : l’organisation et la mise en portabilité de fichiers numériques lisibles par de nombreuses applications, souvent avec l’ajout de mesures techniques de protection. Encore aujourd’hui lorsque les termes livre et numérique sont associés, le livre numérique semble être la seule expression possible. Le « livre web » (Fauchié, 2017) est pourtant un objet d’édition séduisant : un site web organisé en chapitres, des outils de navigation rappelant ceux des dispositifs de lecture numérique, et même la capacité technique de rendre ces contenus consultables hors connexion. Ne plus devoir télécharger un fichier, disposer de capacités graphiques plus avancées, et ne pas dépendre d’applications spécifiques : un livre web peut être accessible directement depuis le Web, le design des sites est plus avantageux que celui du format EPUB, et seul un navigateur est utile pour lire. Cette nouvelle forme d’édition pose toutefois une question économique : comment rentabiliser un projet éditorial et commercial si l’un des principaux accès est gratuit ? Les exemples donnés par Alessandro Ludovico dans Post-Digital Print démontrent qu’une pluralité d’objets physiques et numériques, dont certains payants voire en tirage limité, peut constituer un projet économiquement viable (Ludovico & Cramer, 2016). D’un autre côté, le livre web pourrait être l’une des médiations possibles pour favoriser l’émergence de nouvelles pratiques de diffusion du savoir, et notamment de savoir académique :
Si « penser ce n’est pas produire des pensées mais les saisir » (Gottlob Frege), alors il est crucial de penser les conditions de ces opérations de saisie. Dès lors que la pensée n’existe pas en dehors de sa matérialité, le rôle du design dans la transmission des savoirs va bien au-delà de leur embellissement.
(Masure, 2018).
Impression classique, EPUB, web, impression à la demande : autant de formes différentes, dont certaines n’ont pas encore été inventées, qui impliquent des contraintes particulières dans l’opération de publication ou d’édition. Comment afficher les images en couleurs sur une liseuse à encre électronique à écran noir et blanc ? Comment fabriquer, en impression à la demande, un livre épais qui nécessiterait une reliure autre qu’un dos collé habituellement utilisé en POD ? Comment anticiper l’affichage d’un livre web dont l’utilisateur a désactivé la feuille de style ? Ces paramètres peuvent avoir des incidences à la fois sur la conception des contenus – peut-être minimes –, mais surtout sur la façon dont la forme du livre est conçue. Si la typographie est « la seule chose qui reste du papier dans le livre numérique » (Perret, 2018), ne faut-il pas revoir en profondeur l’attention apportée au design des publications ? Si le livre numérique a plus à voir avec le flux (Tangaro, 2017), comment appréhender l’acte de publication et le rôle de l’éditeur ?
3.1.5. Vers un système ?
À travers cette définition critique des différentes étapes d’une chaîne de publication nous pouvons faire plusieurs constats, tant en termes d’approche théorique que pratique. Il faut tout d’abord noter que la culture technique des workflows dédiés à l’édition est riche, des moyens importants sont déployés pour la conception et la production des livres. Nous avons fait l’économie d’une analyse de l’évolution des programmes et des logiciels depuis l’avènement de l’informatique (Masure, 2014), mais nous constatons un déploiement de prouesses pour prolonger la tradition typographique, pour fabriquer des livres de qualité et pour faciliter le travail des auteurs, des éditeurs ou des designers. Toutefois lors de cette exploration nous nous sommes confrontés à plusieurs obstacles : le manque de compréhension lié à la structuration des contenus, la confusion entre le fond et la forme, le manque de réversibilité lors de la composition graphique, la difficulté de générer conjointement les manifestations imprimée et numérique d’un livre, ou la dépendance à des outils hégémoniques. Les contraintes sont nombreuses et des tentatives de remplacement apparaissent, mais nous souhaitons formuler ici une hypothèse. L’enjeu n’est pas uniquement de supplanter des outils fermés par des logiciels ouverts, ou de mettre en place des procédés complexes de conversion de formats d’un programme à un autre. Il est nécessaire de modifier l’approche globale, comme en témoignent les cas présentés dans la partie 2. À ce sujet le traitement de texte est emblématique : la question n’est pas tant les fonctionnalités et l’ouverture du logiciel – l’objectif d’interopérabilité est pourtant louable –, la confusion entre structure et mise en forme est finalement la même avec Microsoft Word et LibreOffice Writer.
La notion même de chaîne suscite une interrogation : les étapes de publication se doivent-elles de former un ensemble monolithique ? Nous pouvons convenir qu’il y a un intérêt à utiliser la même source pendant tout le processus de publication, notamment pour permettre à tous les acteurs d’intervenir au même titre, en revanche la désolidarisation des étapes est nécessaire. Qui plus est, la publication doit être un système cohérent composé de modules en synergie – pour reprendre une expression de Gilbert Simondon –, plutôt qu’une série de paliers irréversibles et enchaînés qu’il faudrait suivre de façon linéaire. La chaîne de publication peut être considérée comme un ensemble de fonctions imbriquées qui se répondent entre elles, c’est la définition de l’« objet technique concret » (Simondon, 2012). La structuration d’un document permet de lui attribuer une mise en forme, ces deux étapes sont liées, elles s’articulent : cette description des étapes et l’apport des théories de Gilbert Simondon nous permet de modéliser un nouveau schéma que nous nous proposons d’exposer par la suite. L’adaptabilité des fonctions d’un processus de publication permet d’entrevoir non plus une chaîne, mais un système : un ensemble d’éléments interagissant entre eux selon des objectifs et des règles. De nombreuses alternatives émergent pour repenser la façon de produire des livres, comme le collectif PrePostPrint déjà évoqué (Fauchié, 2017). L’influence du numérique sur le livre et ses moyens de production s’est traduite par la numérisation des outils, puis par l’émergence de nouvelles formes – en l’occurrence le livre numérique. Il s’agit désormais d’entrevoir la transformation des méthodes et des techniques.
3.2. Les principes d’un nouveau modèle
Nous proposons d’abandonner le terme de « chaîne » au profit de celui de « système » : les étapes d’un processus de publication ne doivent plus être considérées comme une suite linéaire, mais comme un assemblage sophistiqué, une synergie de composants interagissant de façon dynamique, et non plus linéaire – une étape après l’autre. Cette proposition se base sur les constats mis en avant dans la partie précédente, notamment la confusion entre structure et mise en forme, le manque de compatibilité, la discontinuité des étapes ou la dépendance à certains logiciels. Si les dix dernières années ont été consacrées à trouver des alternatives libres et ouvertes à des logiciels fermés et privateurs22, ce mouvement en faveur d’un remplacement peut, dans le domaine de l’édition – écriture, structuration, collaboration, composition – être dépassé. Les projets portés par Getty Publications ou O’Reilly exposés dans la seconde partie illustrent ce mouvement : les traitement de texte et logiciel de publication assistée par ordinateur sont écartés au profit d’une nouvelle conception du processus de publication. La notion même de « système » introduit le fait que les outils ne doivent pas remplir des fonctions les unes après les autres, selon un procédé linéaire, mais être assemblés d’une manière cohérente, afin de dialoguer entre eux.
L’association efficiente des outils qui constituent un workflow d’édition requiert une circulation d’information entre eux. Les questions de compatibilité adviennent assez vite lorsqu’il s’agit de communiquer entre les métiers qui composent la chaîne d’édition : de deux systèmes d’exploitation distincts et deux logiciels de traitement de texte dissemblables découlent au mois quatre sources de problèmes (Reichenstein, 2016). Les enjeux d’interopérabilité sont peut-être encore mal appréhendés dans le domaine de l’édition, nous tentons ici de trouver des solutions pertinentes.
Une dimension supplémentaire découle de l’interopérabilité des outils, celle de pouvoir les échanger à la manière de briques logicielles. Cette dimension de modularité signifie que le système de publication est d’abord composé de fonctions, ces dernières sont remplies par des outils. Le processus global n’est pas orienté par les outils, mais par les fonctions.
Nous l’avons déjà vu, les formes du livre sont aujourd’hui principalement l’imprimé, le livre numérique homothétique et, en marge, le livre web. Embrasser ces différentes possibilités, et être en capacité de générer facilement autant un PDF d’impression qu’une version web a des conséquences sur le système de publication. Celui-ci ne doit plus être orienté pour l’imprimé et produire d’autres formats plus exotiques dans un deuxième temps, il doit être multiforme par défaut.
L’interopérabilité, la modularité et la multiformité : trois principes qui soutiennent un système de publication pour éditer des livres avec le numérique. Ces trois principes sont interdépendants, et ne sont pas exsangues de problèmes ou de critiques. Si ce nouveau modèle était en capacité de résoudre toutes les difficultés présentées dans la partie précédente, il aurait déjà été adopté. Nous devons donc être exigeant quant à la présentation de ces trois fondements, et extraire les nouvelles contraintes imposées par ce modèle.
3.2.1. Interopérabilité
L’interopérabilité est un enjeu critique dans une chaîne de publication, puisqu’il s’agit de la communication entre les différents outils qui la composent. Elle permet une continuité d’une étape à une autre, par exemple entre l’étape d’écriture et de validation d’un texte, et celle de mise en page. Si un traitement de texte utilise un format non ouvert, il sera probablement très complexe pour un logiciel de composition de l’interpréter, il y a donc une absence d’interopérabilité. Quelles sont les possibilités pour réaliser une telle fluidité de circulation d’informations entre les outils qui constituent un système de publication ? Quels sont les contraintes et les effets d’une réelle interopérabilité ?
La continuité, dans une chaîne de publication, est donc la capacité à passer d’une étape à une autre et donc d’un outil à un autre, facilement. Pourquoi est-ce que cette continuité, sans friction, est nécessaire ? Pour deux raisons que nous souhaitons exposer avec le plus de clarté possible, et qui illustrent par ailleurs ce concept de « continuité ».
L’étape de composition crée une tension dans le processus d’édition, en effet le logiciel utilisé pour la mise en forme ne peut pas être accessible à tous les intervenants du projet. Par exemple lorsqu’un texte a été rédigé, relu et corrigé avec un traitement de texte par des auteur et correcteur, la composition est réalisée avec une autre application : un logiciel de publication assistée par ordinateur. Ce dernier peut importer le fichier généré par le traitement de texte, et le designer graphique se charge alors de la mise en page du texte dans ce nouvel environnement informatique. Si l’auteur souhaite intervenir à nouveau sur le texte pour intégrer des modifications, il rencontre une difficulté puisqu’il ne peut pas faire le chemin inverse, c’est-à-dire importer dans un traitement de texte le fichier produit par le logiciel de composition. Deux solutions sont alors possibles : l’auteur dispose du même logiciel de mise en forme que le ou la graphiste – et le maîtrise –, ou il doit laisser une personne compétente réaliser cette action. Le texte doit être fixé avant qu’une mise en forme puisse lui être attribuée, il y a donc, à ce moment du processus, une rupture.
Deuxièmement, les formats des fichiers des traitements de texte et des logiciels de PAO, même s’ils sont désormais basés sur des standards XML, restent illisibles pour le commun des mortels. La question de l’interopérabilité ne concerne pas que les programmes ou les machines, mais aussi les humains qui les manipulent. L’utilisateur, pour lire un fichier issus de ces outils, doit forcément passer par ceux-là. Ces fichiers sont comme des boîtes noires, difficile de savoir ce qu’ils contiennent hormis les informations que le logiciel compatible nous transmet. Cela a une incidence sur la circulation et la gestion des fichiers. Observons le fonctionnement adopté dans un autre domaine, le développement informatique. Celui-ci n’est pas pris au hasard car il est également centré sur du texte, sauf qu’il s’agit cette fois de code. Les projets sont un ensemble de fichiers organisés, chacun d’entre eux porte des informations lisibles avec un éditeur de texte, aucun logiciel particulier n’est nécessaire pour lire le contenu – la question de l’interprétation est décorrélée.
Pour contourner cette problématique de discontinuité liée aux formats et aux logiciels, plusieurs procédés existent, l’un d’eux est LaTeX. LaTeX est l’association d’un langage de balisage, TeX, et d’un processeur qui génère différents formats à partir de cette source (Rouquette, Chabannes, & Rouquette, 2012). Créé par Leslie Lamport en 1983 à partir de TeX de Donald Knuth — lui-même créé en 1977 —, LaTeX est pensé pour l’impression de documents — article, thèse, livre – et donc la production de fichiers PDF. LaTeX est un système bien antérieur aux traitements de texte, et il repose sur les éléments suivants :
- un langage de balisage pour inscrire et structurer du texte : niveaux de titre, liste, notes de bas de page, pagination, italique, tableau, légendes, mais aussi des formules mathématiques ;
- l’édition des fichiers .tex se fait dans un éditeur de texte. La syntaxe est compréhensible et plus légère que du HTML, en revanche la lecture d’une source en .tex n’est pas chose aisée en raison des nombreuses balises ;
- la génération du format PDF se fait classiquement depuis un terminal, mais des logiciels avec des interfaces graphiques rendent cette génération plus simple ;
- dans la mesure où les fichiers .tex et associés — notamment pour gérer les bibliographies ou les feuilles de style — sont des fichiers texte, ils peuvent être ouverts et lus sur n’importe quel dispositif disposant d’un éditeur de texte sans risque de compromettre le fichier.

LaTeX nécessite de disposer d’une infrastructure particulière pour générer les formats de sortie : elle peut comprendre des extensions destinées à la gestion des bibliographies ou des mises en forme spéciales, en plus d’une collection de programmes pour le fonctionnement général. Cet ensemble est désigné sous le nom de « distribution LaTeX », tant il s’agit d’un mini-système d’exploitation typographique. LaTeX a été conçu pour composer très habilement la typographie d’un document, jusqu’au dessin de caractères avec Metafont (Vallance, 2015). Si LaTeX est stable et puissant, offrant la possibilité d’une structuration et d’une mise en forme très maîtrisées, idéale pour l’édition scientifique (Guichard, 2008), son utilisation demande un apprentissage important, certaines fonctionnalités sont complexes à manipuler – même avec des logiciels qui en facilitent la compréhension. Par ailleurs, si le rendu pour l’impression est irréprochable il est néanmoins limité, les modèles et feuilles de style nécessitent des compétences importantes. Quelques maisons d’édition ou graphistes ont utilisé LaTeX pour structurer et composer des livres, et non pas uniquement pour des articles comme c’est le cas le plus répandu, mais ces expériences sont très rares, principalement parce que le degré de connaissances requises est élevé, et les détournements du processus nécessaires. Enfin, ce n’est pas un procédé pensé pour la génération de formes numériques – même si cela est possible, notamment du format HTML. LaTeX est une approche programmatique pour concevoir et produire une publication figée, et ce système remplit parfaitement cette fonction.
Entre d’un côté la complexité des formats des traitements de texte et de l’autre la difficulté d’usage de LaTeX et son manque de multiformité, nous pouvons trouver une alternative qui répond à plusieurs préalables. Nous avons besoin d’un moyen d’inscrire et de structurer du texte pour pouvoir en générer des formes diverses, tout en ayant la possibilité de voir et de comprendre la structure du document. Le mode WYSIWYM, abordé dans la partie 3.1.1., répond à ces exigences : la qualification des contenus est prioritaire sur l’aperçu graphique qui en est donné. Les langages de balisage léger sont l’application du mode WYSIWYM, le plus célèbre et répandu d’entre eux est Markdown. « Un langage de balisage n’est rien d’autre qu’un système d’annotation d’un document qui s’effectue d’une telle manière qu’il est possible de distinguer ces balises, ces annotations, du texte que l’on annote. » (Dehut, 2018) Markdown a été inventé pour pouvoir écrire facilement en HTML, sans écrire en HTML : quelques balises permettent de structurer du texte, et sont compréhensibles par des humains et interprétables par différents outils ou processeurs.

Le rayonnement de Markdown est tel que ce langage peut être considéré comme la norme de l’écriture numérique (Fauchié, s. d.), bien au-delà de l’écosystème technique auquel il est habituellement réservé. Étant à la fois aisément convertissable en HTML et lisible par des non-techniciens, ce format peut devenir la source utilisée tout au long d’un processus d’édition. Quire, le système de publication numérique de Getty Publications présenté dans la seconde partie, emploie Markdown. Stylo, l’éditeur de texte pour les sciences humaines et sociales – conçu par la Chaire de Recherche du Canada sur les écritures numériques en partenariat avec Érudit (Vitali-Rosati, 2018) –, utilise Markdown.
Markdown est une initiative du domaine du développement web, il a été conçu par des développeurs, il a de commun avec des formats de fichier de programmation d’être tout simplement du texte brut – comme un fichier PHP, un fichier JavaScript ou un fichier XML. Il est possible de mettre à plat un projet grâce à des fichiers en texte brut, c’est-à-dire de déconstruire le projet en unités indépendantes et intelligibles quels que soient la situation et l’environnement – même si les langages de programmation nécessitent des connaissances précises pour pouvoir être interprétés. Cette mise à plat permet d’envisager un mode de gestion particulier des fichiers : ils ne sont plus manipulés de la même façon. Avec un système de contrôle de versions, les actions d’enregistrement, de révision et de validation changent totalement. Git est actuellement le plus populaire de ces systèmes, offrant des fonctions puissantes de versionnement.
« Les systèmes de gestion de versions comme Git fonctionnent en conservant un exemplaire de chaque version successive d’un projet dans ce que l’on appelle un repository (ou dépôt), dans lequel vous validez, ou committez, des versions de votre travail qui représentent des pauses logiques, comme des points de sauvegardes dans un jeu vidéo. »
(Demaree & Brown, 2017)

À l’écrasement successif des fichiers succède une ligne du temps faite de versions et de branches dans laquelle il est possible de naviguer. Voyager dans le temps d’un projet, une opération vitale dans un environnement qui repose sur des enregistrements informatiques, est désormais vraisemblable. Il est intéressant de constater que Git est déjà utilisé pour autre chose que du code, nous l’avons vu avec la revue Distill dans la seconde partie : les révisions sont versionnées, le code source des articles rendu public, chaque action est décrite, etc. Cette pratique est également en cours pour la gestion de textes techniques, notamment pour améliorer la collaboration autour de documents de travail au sein de structures diverses, c’est le cas pour les équipes marketing ou juridiques de l’entreprise GitLab (GitHub, 2018) – qui, forcément, utilisent le produit qu’elle promeut : Git.
Ainsi Markdown, ou d’autres syntaxes légères comme AsciiDoc, permet d’obtenir aisément des documents structurés auxquels une feuille de style peut être attribuée, ce qui convient tout à fait pour une publication numérique. La question principale reste donc la génération d’un format PDF pour l’impression, et c’est justement le format HTML, ou une version XML, qui peut être la base de cette version imprimable. Une solution logicielle propriétaire assure cette conversion du format HTML vers un PDF de grande qualité, et c’est d’ailleurs le choix des systèmes Quire ou Electric Books.
To convert our content to print-ready PDF, we use PrinceXML Prince is the only proprietary tool in our workflow, because there are no open-source alternatives with matching functionality at the moment.
(Attwell, 2017).
PrinceXML est un programme fermé et propriétaire, et relativement coûteux, des initiatives diverses se sont rassemblées pour proposer des alternatives plus ouvertes, constituant un champ de recherche très actif. À la suite d’HTML2print (OSP, 2017) ou de Vivliostyle (Taquet, 2017), Paged Media se consacre depuis 2017 à cette quête de l’impression d’une source HTML, publiant ses premiers résultats et organisant des temps d’échange autour de ces questions techniques et graphiques (Blanc, 2018). Le collectif PrePostPrint est également né de cette volonté de s’extraire des logiques logicielles classiques et fermées (Fauchié, 2017). Il serait en effet dommage de passer d’une hégémonie – le logiciel de publication assistée par ordinateur Adobe InDesign – à une autre – PrinceXML.
La question de la continuité est soutenue par l’enjeu de l’interopérabilité, le moyen de rendre les étapes d’un processus de publication réversibles est l’usage d’un standard commun pour la description et la structuration des contenus. Un langage de balisage léger à la syntaxe riche mais compréhensible comme le format de texte brut Markdown peut venir pallier aux difficultés de communication d’une application à une autre. Utiliser un format brut offre par ailleurs la possibilité de versionner les contenus, et non plus de fonctionner par écrasements successifs. Si des solutions ont été mises en place depuis déjà très longtemps – à l’échelle de l’histoire informatique –, il est aujourd’hui nécessaire de simplifier ces processus et surtout de prévoir la dimension multiforme d’un même projet d’édition. L’interopérabilité ouvre une perspective déterminante, celle de pouvoir construire un système de publication modulaire : le système est architecturé selon des objectifs définis clairement, un module remplit une ou plusieurs fonctions. C’est ce que nous allons examiner dans le point suivant.
3.2.2. Modularité
L’interopérabilité ouvre la possibilité de ne pas dépendre d’un ou plusieurs logiciels précis, et donc d’envisager un système modulaire. D’une chaîne aux étapes liées entre elles par la contrainte des outils, nous passons à un système ouvert dont les phases peuvent être réversibles. Les étapes de publication sont traduites en fonction d’un système, de l’écriture à la publication en passant par la correction et la mise en page, et ces fonctions peuvent être isolées puis rattachées entre elles. Cette question de la modularité est directement issue de la conception technique de Gilbert Simondon : la synergie d’un « objet technique » dépend des relations entre les fonctions de cet objet, elles ne doivent pas agir sans connexion entre elles. Étudions tout d’abord des systèmes modernes de publication qui n’intègrent pas totalement cette dimension, puis détaillons comment un processus de publication peut devenir modulaire.
Depuis plusieurs années l’infrastructure de recherche Numédif (http://www.numedif.fr), portée par la Maison de la recherche en sciences humaines de Caen et la Fondation Maison des sciences de l’homme de Paris, développe le projet Métopes, « Méthodes et outils pour l’édition structurée ». Métopes, atypique dans le paysage de l’édition, dans la façon de produire des livres, est conçu pour éditer et diffuser des textes complexes structurés, en versions imprimée et numérique, sur le modèle du Single Source Publishing – d’une même source XML sont produits différentes formes de publication (« Single-source publishing », 2018). Utilisée par des Presses universitaires en France et dans le monde, cette chaîne éditoriale vise à remplacer le duo traitement de texte et logiciel de publication assistée par ordinateur, bien trop limité pour l’édition scientifique. La base de Métopes est le format XML-TEI, un format XML qui permet de décrire avec la précision scientifique nécessaire des données textuelles. À partir d’un texte structuré exporté depuis un traitement de texte, et d’un schéma de données (TEI), une publication est éditée, structurée et enrichie pour ensuite être diffusée sous différentes formes : PDF pour la consultation et l’impression, livre numérique au format EPUB, et formats propres aux plates-formes de diffusion comme du XML pour Cairn.info ou Open Edition.

La force de Métopes est de pouvoir répondre aux nécessités du domaine académique : des contenus structurés – identification très fine de contenus et métadonnées riches –, une dimension de flux pour une connexion aux principales plates-formes de diffusion en sciences humaines et sociales, et la génération de formats divers – XML, PDF, EPUB, web. Métopes est un système complexe en partie modulaire, il nécessite des formations adaptées pour son application ainsi que des méthodes d’export et d’import spécifiques pour passer d’une étape à une autre – par exemple une fois un texte édité, il doit être exporté vers un logiciel de PAO, en l’occurrence InDesign. Métopes a quelques limites, « l’objectif est de ne pas bouleverser le travail de rédaction : l’auteur ne doit pas être perturbé dans son travail » (Muller, 2016), Métopes génère ainsi une étape irréversible, celle de l’écriture. Une fois le texte intégré dans la chaîne éditoriale, l’auteur ne peut plus intervenir dessus. Hors du contexte de la publication universitaire, Métopes devient trop compliqué à mettre en place. Par ailleurs Métopes n’a pas pour objectif de répondre à la question de la dépendance à un logiciel particulier de PAO ou à un traitement de texte.
Hors du champ de l’édition universitaire, d’autres systèmes modulaires ont été mis en place en appliquant le principe du Single Source Publishing, cette fois avec une syntaxe bien plus légère et accessible que XML et le schéma de données TEI. Des publications non académiques, mais aux exigences similaires, sont construites avec les éléments suivants :
- une syntaxe de description du contenu, pour rédiger et structurer du texte pouvant être agrémenté d’images ;
- un langage de description des données, pour décrire des objets divers, comme des éléments d’une bibliographie ;
- un langage de mise en forme, pour décrire la présentation de contenus ;
- un système de gestion de versions, pour enregistrer, gérer et valider les fichiers ;
- un processeur en charge de la conversion des contenus structurés, pour obtenir un format interprétable par un dispositif de lecture – un navigateur web par exemple –, ou convertissable par un générateur PDF ;
- un générateur, pour convertir un format HTML en PDF destiné à l’impression.
Ce modèle est celui adopté par Getty Publications ou Electric Book Works, les différences entre ces deux exemples sont techniques et sectoriels, Getty Publications éditant des catalogues, et Electric Book Works proposant leur solution à des structures éditant des ouvrages de non-fiction ou des manuels. Ici chaque élément – la description du contenu, la description des données, la mise en forme, le versionnement, la conversion, la génération – correspond à une ou plusieurs étapes du processus de publication, et des outils sont mis en œuvre pour les appliquer. Nous pouvons ainsi compléter la liste ci-dessus avec le système de publication de Getty Publications, décrit plus longuement dans la seconde partie de ce mémoire :
- une syntaxe de description du contenu : le langage de balisage léger Markdown ;
- un langage de description des données : le langage de représentation de données YAML ;
- un langage de mise en forme : des feuilles de style au format CSS ;
- un processeur : un générateur de site statique (Taillandier, 2016) qui transforme et organise des contenus écrits en Markdown en HTML ;
- un générateur : PrinceXML qui convertit des fichiers HTML, associés à des feuilles de style, en format PDF destiné à l’impression.
Ce modèle est dit modulaire car chacun de ces éléments est une brique interchangeable. Prenons plusieurs exemples dans le système de publication de Getty Publications décrit ci-dessus : la syntaxe de description du contenu est Markdown, mais cela peut être un autre langage de balisage léger comme AsciiDoc. Ensuite le processeur est un générateur de site statique, en l’occurrence Hugo (Biilmann, 2015), qui assure la conversion de fichiers Markdown – mais cela pourrait être AsciiDoc – en fichiers HTML selon des gabarits pré-définis, mais cela aurait pu être le convertisseur Pandoc – par ailleurs utilisé dans d’autres systèmes de publication. Enfin, en ce qui concerne le générateur de format d’impression, Vivliostyle peut remplacer PrinceXML – il faut tout de même noter ici une différence de qualité. En plus d’être remplaçables, ces briques interagissent entre elles, créant une synergie que décrit Gilbert Simondon :
[…] l’objet technique progresse par redistribution intérieure des fonctions en unités compatibles, remplaçant le hasard ou l’antagonisme de la répartition primitive ; la spécialisation ne se fait pas fonction par fonction, mais synergie par synergie.
(Simondon, 2012, p. 41)
Comme nous l’avons brièvement exposé dans la première partie lors de l’étude du texte Du mode d’existence des objets techniques, un système de publication est une forme de progrès technique par rapport aux chaînes de publication classiques. D’une part les différentes briques ou modules qui composent le processus éditorial de Getty Publications sont ouverts, modifiables, partageables. L’évolution de ces outils ne dépend pas d’un éditeur de logiciel, mais d’un ou plusieurs développeurs, voir d’une communauté dans le cas de projets étendus. D’autre part si un module devient obsolète alors il est possible de le remplacer par une autre brique qui réalisera au moins les mêmes fonctions, sinon plus. Les fonctions sont certes modulables et d’une certaine façon interchangeables, mais elles sont en relation, la modification d’un élément aura probablement une incidence sur l’ensemble du système.
Deux points sont à souligner avant d’aborder la question des différentes formes d’une publication et des enjeux liés. En premier lieu l’apport pour Getty est riche sur plusieurs niveaux (Gardner, 2017), autant concernant la facilité de produire des formes diverses, que l’évolutivité de la chaîne. Getty Publications n’a pas besoin de produire du XML, et par exemple du XML TEI, mais cela pourrait être une possibilité. Ensuite la modularité a une limite qu’il nous faut prendre en compte : quand bien même ces briques sont à la fois indépendantes – elles peuvent être remplacées – et liées – elles ne sont pas isolées –, elles créent une nouvelle forme de contrainte. Si les principales dépendances d’une chaîne d’édition classique sont les logiciels – et principalement le traitement de texte et le logiciel de PAO –, celles d’un système modulaire de publication sont des programmes et leurs propres dépendances. Dans le cas de Electric Book Works qui a développé un workflow similaire à celui de Getty Publications (Attwell, 2017), le processeur est le générateur de site statique Jekyll. Ce dernier est développé en Ruby, un langage de programmation reconnu mais qui nécessite d’être installé dans le système d’exploitation de l’utilisateur. Nous obtenons déjà 3 niveaux de dépendances : un processeur dépend d’un générateur de site statique, un générateur de site statique dépend d’un langage de programmation, un langage de programmation dépend d’un environnement informatique. À l’inverse, Getty Publications a remplacé le générateur de site statique Middleman (Gardner, 2015) par Hugo, sans que cela n’ait un impact important sur les phases d’écriture et de révision, ou de mise en forme. Ce sur quoi nous souhaitons insister est que la question n’est pas seulement celle de la dépendance à des logiciels, puisqu’ici elle semble se déplacer plutôt que de disparaître, mais la possibilité de faire évoluer cette chaîne, dans le temps.
[…] je voulais m’assurer que notre travail demeure accessible aussi longtemps que possible. »
(Gardner, 2017)
Peut-être que cette évolution et cette résilience ont un prix, celui de nouvelles dépendances.
3.2.3. Multiforme
Le nouveau modèle que nous proposons se base sur trois dimensions, elles-mêmes étant liées les unes aux autres. L’interopérabilité permet la modularité, et la modularité permet la multiformité. Au-delà de la capacité, il nous faut rappeler les contraintes d’un contexte en mouvement. Les formes du livre, ou d’une publication, ont beaucoup évolué, et sont souvent des déclinaisons du codex – cet objet hautement technologique. Que ce soit le livre de poche dans les années 1950, ou le livre numérique dans les années 2010, nous avons plusieurs exemples dans l’histoire contemporaine de l’édition que cette variété d’objets nécessite une adaptation. Le numérique est donc une opportunité pour déployer une diversité de formes, actuelles et futures. Nous devons présenter quelques-unes de ces évolutions du livre, tout comme nous devons analyser les solutions pour qu’un système de publication s’y adapte.
Le livre de poche a été une transformation majeure pour l’industrie du livre dans les années 1950 (Marti, 2008), suscitant l’enthousiasme ou le rejet (Sinard, 2017). Nous ne revenons pas ici sur les nombreux effets positifs de cette invention, qui concernent surtout l’accès à l’écrit et à la culture, mais également la façon dont le livre est conçu. Le livre de poche est une évolution du livre, ou plutôt une nouvelle déclinaison d’une publication. Cet objet bon marché est parfois utilisé pour comprendre, aujourd’hui, l’impact du livre numérique. Ce dernier est plus récent, même si le premier livre numérique a été créé en 1971 (Lebert, 2016), il ne se concrétise qu’autour des années 2006 et 2007 pour des raisons techniques et économiques. La standardisation d’un format, la mise à disposition de titres en numérique et enfin la commercialisation d’un dispositif de lecture numérique permettent une adoption significative de ce nouveau mode de lecture.
Si le livre numérique n’a pas eu le succès escompté, voir même que la « mort du papier » n’est en fait qu’une modification du « rôle » du document (Ludovico & Cramer, 2016, p. 32), l’ebook implique un bouleversement significatif pour les maisons d’édition. D’une approche figée – que ce soit le livre imprimé mis en forme à la page ou le format PDF qui n’est qu’un ersatz numérique homothétique – le livre devient liquide. Le format EPUB introduit en effet une reconfiguration continue du texte : en fonction de la largeur d’un écran une phrase peut occuper une ou plusieurs lignes ; selon les réglages typographiques d’un dispositif de lecture numérique ou des réglages de l’utilisateur, une page peut prendre un aspect totalement différent – voir figure ci-dessous.
[…] dans le passage du livre papier au livre numérique, le livre abandonne la forme de codex pour acquérir celle de « flux » numérique.
(Tangaro, 2017)

Parmi les nouvelles formes du livre, nous devons évoquer celle du « livre web », phénomène récent qui concerne principalement des ouvrages de non fiction – essais ou manuels techniques. Des initiatives apparaissent dès les débuts du Web pour diffuser facilement des textes de formats longs, mais c’est à partir des années 2010 que des web books sont réalisés pour répondre à plusieurs critères (Fauchié, 2017) : ensemble de pages structurées et organisées entre elles, contenus qui s’adaptent à la dimension de l’écran, liens hypertextes permettant de naviguer dans et hors du livre, facilités de diffusion d’un livre numérique via le Web, démarche d’ouverture avec des accès libres. Si plusieurs livres web ont été référencés sur un dépôt GitHub (https://github.com/antoinentl/web-books-initiatives) permettant de prendre la mesure de la diversité de ces projets, nous pouvons citer un « livre web » produit en 2016 : Resilient web design de Jeremy Keith (https://resilientwebdesign.com/) est un exemple emblématique de « livre web » en termes de design, de diffusion de contenus et d’édition. Jeremy Keith a mis en ligne ce court essai en auto-édition en décembre 2016 (Keith, 2016) à la suite de plusieurs ouvrages publiés notamment chez l’éditeur A Book Apart. Il s’agit d’un site web relativement classique composé d’une dizaine de pages. Des versions audio, PDF et EPUB sont également disponibles. Le site web comporte une particularité très intéressante : une fois qu’une page a été visitée, le site est consultable hors ligne (Keith, 2017), cet objet numérique devient une véritable alternative à des formats comme l’EPUB en termes de portabilité et d’accessibilité. Autre particularité : les sources du site web sont mises à disposition sur la plate-forme GitHub (https://github.com/adactio/resilientwebdesign/), toute personne maîtrisant Git ou l’interface de GitHub peut proposer des modifications aux contenus, qui pourront ensuite être validées par l’auteur. Le livre web peut « nous inciter à repenser la façon dont les savoirs sont élaborés et transmis » (Masure, 2018).

Alessandro Ludovico décrit avec beaucoup de précisions le mouvement formel que connaît l’édition depuis la fin du 19e siècle, la première partie de ce mémoire est justement consacrée à l’analyse de son ouvrage Post-Digital Print. Le concept d’« impression postnumérique » recouvre les formes diverses que prend le livre, voir une même publication. Il s’agit tout autant des versions – édition limitée de luxe, livre de poche, ebook –, ou ses axes de diffusion – la souscription avant disponibilité, des podcasts après, etc. Cette « hybridation » n’est possible qu’en étant en capacité de générer à la fois un PDF destiné à une impression en offset, un PDF pour une impression à la demande et des versions numériques – EPUB ou web.
Revenons au cas qui nous occupe depuis le début de ce mémoire : le système de publication de Getty Publications – analysé dans la partie 2. Getty Publications a donc mis en place un moyen de produire des expressions d’une publication aussi variées qu’un site web, un livre numérique, un PDF et un ouvrage imprimé. En soi il ne s’agit pas d’un exploit, nombre de maisons d’édition ont su adapter leur chaîne d’édition pour produire ce type d’artefacts. La particularité réside dans le fait de faire reposer ce système sur une même source : un ensemble de modules regroupé sous le nom de Quire œuvre à générer des formats très divers. Produire un livre numérique au format EPUB n’est plus une tâche supplémentaire comme cela peut être le cas pour de nombreux éditeurs (Faucilhon, 2016). Tout comme Atlas, le système de publication d’O’Reilly Media également abordé dans la partie 2, Quire est une approche nouvelle dans le domaine de l’édition. Ces deux exemples ont des limites : Quire est web first, c’est-à-dire que les mécanismes en place sont avant tout dirigés pour produire un site web ; Atlas est le résultat de développements spécifiques et non un assemblage de technologies disponibles.
Getty Publications et O’Reilly Media sont deux structures d’édition particulières, « de niche » pourrait-on dire, tant les domaines abordés sont spécifiques : catalogue de musée et manuels techniques. Du côté d’un grand groupe d’édition de livres plus « grands publics », des avancées techniques de ce type sont également mises en place : depuis plusieurs années Hachette produit des livres imprimés et des ebooks avec les technologies du Web (Cramer, 2017). Après un import de fichiers issus de traitements de texte, des formats HTML et CSS sont la base de la production de fichiers EPUB – pour le livre numérique – et PDF – pour le livre imprimé. Ainsi plusieurs milliers de titres dans le domaine du trade – l’édition grand public qui concerne les romans, les essais ou la littérature jeunesse – sont produits depuis 2007, sans avoir recours directement à un logiciel de publication assistée par ordinateur. Nous devons noter que ce mouvement inspiré des technologies du Web n’est pas si récent, Hachette ou O’Reilly Media en témoignent d’une façon singulière.
Nous nous concentrons sur la publication en tant qu’elle concerne le document, le livre, mais également des données disponibles de façon plus brutes. Getty Publications est en effet en mesure de proposer, en plus des formats déjà mentionnés, l’ensemble des prises de vues ou les jeux de données de description des objets de leurs catalogues. Des fichiers aux formats JPEG, CSV ou JSON des œuvres présentées viennent s’ajouter aux PDF, EPUB ou MOBI. Cela représente une opportunité importante pour les lecteurs et utilisateurs de ces publications : l’étude de mosaïques romaines peut s’appuyer sur la présentation d’œuvres contextualisées à travers un catalogue édité, mais aussi avec la description des différentes mosaïques sous un format exploitable comme un fichier JSON ou un tableur.

Dans le même esprit, nous pouvons mentionner la revue Distill présentée dans la partie 2 : chaque article, en plus d’être consultable en ligne, est également téléchargeable sous la forme d’un dépôt Git, et lisible localement à l’aide de programmes spécifiques. Ainsi les différents graphiques et diagrammes interactifs peuvent être étudiés et modifiés sur l’ordinateur de l’utilisateur sans impacter la version publique en ligne. Une publication ne se limite plus à un objet imprimé ou à un livre numérique qui sont des expressions organisées et délimitées de contenus, mais aussi étendues à des données moins éditorialisées.
3.2.4. De nouvelles contraintes ?
Nous proposons un nouveau modèle de publication, un système constitué de trois principes interdépendants : l’interopérabilité pour faciliter la circulation des données et la communication des outils entre eux ; la modularité, permise par l’interopérabilité, pour rendre chaque outil interchangeable et l’ensemble adaptable ; et la multiformité, permise par la modularité, ouvrant la perspective de formes très diverses d’une publication. Si le fondement de ces principes repose sur l’émancipation de fonctionnements établis sur des outils monolithiques et considérant la technologie dans sa dimension majoritairement solutionniste, nous devons néanmoins reconnaître les limites des hypothèses exposées dans cette partie. Se passer de logiciels de publication assistée par ordinateur et de traitement de texte implique, comme dans les cas exposés ici et dans la partie 2, le recours à des développements informatiques spécifiques et à l’utilisation de programmes open source ou libres. D’une dépendance à des logiciels spécifiques et dont le choix est souvent limité – depuis une dizaine d’années la mise en page est réalisée très majoritairement avec InDesign –, nous passons à une dépendance de programmes ouverts mais nombreux. La modularité d’un système doit permettre le changement d’un composant par un autre mais encore faut-il avoir les compétences pour choisir et intégrer ces nouvelles briques.
La chaîne de publication numérique de Getty Publications était par exemple constituée autour du générateur de site statique Middleman (Gardner, 2015), pour aujourd’hui utiliser un autre générateur de site statique, Hugo. La source des documents étant le langage de balisage léger Markdown et le langage de description YAML, deux formats interopérables, la transition a été possible. Les contraintes ne sont plus les mêmes, et la présence d’un développeur est nécessaire pour maintenir et faire évoluer un tel système. Les compétences requises sont nouvelles et permettent une indépendance toute relative.
Si nous devons constater que ce nouveau modèle fait apparaître de nouvelles contraintes, elles sont néanmoins d’une nature différente, ouvrant des perspectives en termes de formes, laissant l’utilisateur maître du workflow qu’il constitue, permettant une évolution vers d’autres possibilités numériques, et surtout appelant à une certaine diversité d’outils et d’approches dans le domaine de l’édition. Devenir chef d’orchestre d’un dispositif, et non plus opérateur ou surveillant (Simondon, 2012), implique d’acquérir une culture technique, avant même d’envisager de maîtriser des connaissances plus complexes comme la programmation. L’un des chantiers incontournables résultant de l’application de ces principes est la formation aux outils disponibles et la création d’interfaces facilitant certaines actions d’édition, comme le souligne l’un des membres de l’équipe du département numérique de Getty Publications (Gardner, 2017).
Conclusion : Pour de nouvelles dépendances
Le livre connaît des évolutions constantes, depuis une quarantaine d’années l’informatique puis le numérique apportent de nouvelles configurations : une informatisation des métiers du livre avec le développement de logiciels spécifiques, et des nouveaux modes d’accès notamment avec l’ebook. Ces mutations, récentes en ce qui concerne le livre numérique, nous amènent à interroger la façon dont les publications sont conçues et produites, jusqu’alors centrées sur la version imprimée. La chaîne d’édition, considérant qu’il s’agit de l’ensemble des outils permettant de fabriquer un livre, est impactée par les évolutions techniques que sont par exemple le traitement de texte, le logiciel de publication assistée par ordinateur, le format EPUB ou encore le livre web. En prenant en compte ces bouleversements tant en termes de processus de construction des publications que de méthode de travail, nous avons défini un nouveau modèle alternatif. Avant de réexaminer ce système et surtout de le questionner, nous revenons sur le cheminement qui nous a conduit à cette approche originale.
Les mutations du livre et des expérimentations inédites
Les trois textes que sont Post-Digital Print : la mutation de l’édition depuis 1894 d’Alessandro Ludovico, Pour tout résoudre, cliquez ici : l’aberration du solutionnisme technologique d’Evgeny Morozov et Du mode d’existence des objets techniques de Gilbert Simondon nous ont apporté trois points essentiels pour analyser les évolutions du livre et notre rapport à la technologie ou à la technique sous l’angle de la publication.
La question de l’hybridation de l’imprimé et du numérique est abondamment traitée par Alessandro Ludovico, les possibilités de croisement de ces deux mediums sont nombreuses, ne conduisant non pas à la mort du papier, mais plutôt à des formes multiples et complémentaires. La condition de l’hybridation d’une publication dépend en partie des possibilités de sa fabrication : générer facilement des versions numériques – livre numérique et livre web par exemple – aux côtés de plusieurs variantes imprimées – un tirage limité et une impression à la demande par exemple – dépend des méthodes et des outils mis en place.
Depuis l’avènement des logiciels d’édition, le livre connaît une forme de solutionnisme technologique : l’informatique est privilégiée pour solutionner des problèmes techniques et humains, que ce soit la fabrication de l’objet imprimé ou numérique, ou le travail autour du texte rassemblant plusieurs métiers différents. L’ouvrage d’Evgeny Morozov est une critique du solutionnisme technologique qui consiste à recourir à des solutions techniques sans examiner le fondement du problème rencontré. Il en est de même dans le cadre de processus de production d’un texte : les tâches à réaliser pour construire un ouvrage ne peuvent se limiter à des fonctionnalités d’un logiciel, aussi puissant soit-il. D’autres solutions peuvent être mises en place comme le détournement des formats du Web pour produire une publication, donnant l’occasion de questionner l’usage de la technologie.
Au-delà de l’utilisation des outils numériques, la question du rapport de l’homme à cet environnement technique est essentielle, nous devons sortir du choix binaire qu’est sa considération uniquement utilitariste ou sa sacralisation. Gilbert Simondon propose de reconsidérer la technique et d’attribuer à la machine une individuation : l’objet technique est doté d’une synergie et d’une certaine indépendance dans son fonctionnement, contrairement à des objets non techniques comme les ustensiles. Ainsi l’homme ne doit plus se positionner dans la machine mais au-dessus ou au-dessous, il n’est plus l’opérateur mais le chef d’orchestre. Les outils utilisés classiquement dans l’édition sont peu ouverts et placent l’homme dans une position d’aliénation, repenser la chaîne de publication permet de modifier notre rapport aux machines, et donc, par extension, aux programmes.
À la suite de ces trois analyses nous avons exposé trois démarches qui tendent à repenser la façon de fabriquer des publications. Tout d’abord O’Reilly Media a développé des méthodes et une plate-forme, afin de faciliter la production de versions imprimées et numériques, et pour permettre aux auteurs d’écrire dans de meilleures conditions. S’il s’agit d’une recherche de perfectionnement guidée par la rentabilité, O’Reilly Media a mis en place et participe encore aujourd’hui à un format et à un langage de balisage léger, ouverts, apportant une certaine réflexivité dans l’acte d’écriture et d’édition, en plus d’apporter des innovations techniques – il s’agit des formats DocBook et AsciiDoc. Getty Publications a probablement bénéficié de ces réflexions pour construire une chaîne originale, grandement basée sur les technologies du Web, générant autant une version web, un livre numérique au format EPUB ou des fichiers PDF pour différents types d’impression. Enfin la revue Distill bouleverse les modes de gestion d’un texte dans un cadre académique et scientifique, s’appuyant sur des méthodes issues du développement informatique comme le versionnement, et invitant les auteurs à participer au processus d’édition.
Ces analyses de texte nous donnent un cadre de réflexion nécessaire, accompagné de présentations de cas qui illustrent nos recherches, la chaîne de publication Quire de Getty Publications est à ce titre particulièrement emblématique des mutations en cours. Nous devons souligner que ces exemples ne sont pas exempts de critiques quant à leur contexte et à leur choix de réalisation, tout comme les propositions qui suivent.
Un système modulaire
Décomposer le processus de publication en définissant ses étapes constitue les prémisses incontournables à l’exposition d’un nouveau modèle. Écrire et structurer ; partager, collaborer et valider ; mettre en forme ; générer des formats et publier : ces différentes phases représentent chacune un certain nombre de défis, que les outils et les méthodes utilisés actuellement ne parviennent qu’à résoudre partiellement – nous pouvons illustrer ce point par la complexité de la production des livres numériques, tâche souvent sous-traitée. Les traitements de texte et les logiciels de publication assistée par ordinateur engendrent même des confusions et un certain nombre d’erreurs en appliquant un modèle monolithique composé d’étapes irréversibles. Le passage d’une chaîne de publication à un système modulaire vise à désolidariser les phases de publication pour qu’elles constituent une synergie plutôt qu’une suite linéaire, mais également à clarifier la confusion entre structure et mise en forme, à favoriser une compatibilité, à permettre la continuité entre les étapes et l’indépendance vis-à vis de certains logiciels, ou enfin à donner aux auteurs et aux éditeurs les moyens de se réapproprier leurs outils de création et de production. Nous parlons ici d’un système en particulier, sans qu’il s’agisse pour aurtant du système. À travers les principes exposés dans ce texte nous souhaitons engager une dynamique ouverte, afin qu’elle donne lieu à d’autres propositions.
Grâce à la présentation des phases du processus d’édition, et en s’appuyant sur les exemples présentés dans la seconde partie, nous avons été en mesure d’exposer les trois principes qui constituent un nouveau modèle de chaîne de publication. L’interopérabilité est la condition pour faciliter la circulation de l’information et offrir une compatibilité entre les différents outils, son application peut se traduire par l’usage de langages de balisage léger pour inscrire et structurer le texte. La modularité, qui consiste en l’assemblage de fonctions sans dépendance à un outil en particulier, est conditionnée par l’interopérabilité. La chaîne de publication Quire est l’application de ce principe : un générateur de site statique produit des fichiers HTML qui sont la base d’un site web et qui sont transformés en PDF par un autre processeur. Un autre module peut être ajouté pour produire un format EPUB, le format du livre numérique. Enfin, la multiformité est la capacité de produire des formes diverses d’une même publication : l’incontournable version imprimée, le format EPUB désormais courant, mais également un site web ou des jeux de données dans des cas spécifiques. Cette multiformité dépend de la modularité qui dépend elle-même de l’interopérabilité, ce trio est interdépendant et forme un système de publication. Il est temps d’abandonner les traitements de texte et les logiciels de publication assistée par ordinateur (Attwell, 2017).
Loin de résoudre automatiquement tous les problèmes énoncés dans la partie 3.1., ce système modulaire présente de nouvelles contraintes par rapport aux chaînes d’édition conventionnelles. L’acquisition d’une culture technique plutôt que la connaissance de fonctionnalités, la maîtrise de langages plutôt que celle de logiciels métiers, une priorité sur les artefacts numériques plutôt que sur l’ouvrage imprimé, l’acceptation d’une typographie sous forme de flux pour les versions numériques, les défis sont nouveaux par rapport aux approches dites classiques. Il s’agit, d’une certaine façon, du coût du changement de paradigme imposé par ce système, que nous pouvons qualifier de nouvelles dépendances.
Pour de belles dépendances
Le schéma traditionnel basé sur un traitement de texte et un logiciel de publication assistée par ordinateur est relativement simple à maintenir, abstraction faite de la dépendance à des entreprises privées qui développent et vendent ces logiciels et proposent des mises à jour – payantes ou incluses dans des abonnements. Ici, avec un système constitué de briques reliées entre elles – souvent open source ou libres –, les dépendances techniques sont nouvelles : si un module n’est plus actualisé par une personne ou une communauté, il faut trouver une alternative ou envisager un développement pour pallier au défaut de mise à jour. Par ailleurs, les dépendances peuvent produire une réaction en chaîne : un générateur de site statique fonctionne par exemple avec un langage de programmation particulier, qui n’est pas forcément installé par défaut sur tous les systèmes d’exploitation. Un changement de système d’exploitation peut provoquer un effet domino, contournable grâce à la dimension modulaire du système : un nouveau générateur de site statique pourrait venir remplacer celui choisi initialement.
Ces dépendances font appel à des humains, des individus, des collectifs, des communautés ou des entreprises : ils œuvrent indépendamment ou en réseau pour maintenir différents projets. Contrairement au cas du logiciel qui est développé par une entreprise, ici l’intelligence collective est non centralisée : les acteurs des projets sont distribués ou peuvent l’être grâce au caractère libre du projet. Ces initiatives deviennent aujourd’hui fragiles, certaines briques technologiques ne devant parfois leur existence qu’à des individus isolés (Eghbal, 2017), elles démontrent pourtant la puissance d’une architecture du savoir distribuée, ouverte et évolutive.
Nous désignons les contraintes exposées dans la dernière partie et dans cette conclusion comme de belles dépendances : la capacité d’un système modulaire de publication de fonctionner dans un temps long repose sur des compétences, et sur des démarches bien souvent artisanales. Plutôt que de faire porter la continuité d’une chaîne d’édition sur la maintenabilité d’un ou plusieurs logiciels par des sociétés privées ou des communautés centralisées, un système modulaire repose sur l’assemblage de plusieurs programmes, autonomes et connectés. La dimension artisanale correspond à ces nombreux projets conçus chacun par une poignée d’individus pour satisfaire des exigences particulières. Ce mémoire est par exemple construit grâce à l’association d’une quinzaine de programmes différents, certains étant élaborés par une ou deux personnes 23. Réunir ces composants ne signifie pas être développeur, mais suppose de s’immerger dans le fonctionnement de fabrication d’un livre, de faire.
Nous avons trop peu d’occasions de vraiment faire quoi que ce soit parce que notre environnement est trop souvent prédéterminé à distance.
(Crawford, 2016, p. 84)
Les belles dépendances sont celles des programmes et de leur réunion, c’est une nouvelle configuration qui remet en cause l’usage de fonctions préconçues propres aux chaînes d’édition classiques. Mais la transformation qui a lieu n’est pas qu’une question de choix techniques, l’utilisation d’un système modulaire nécessite l’acquisition d’une culture technique, voir l’intégration d’un profil de designer/développeur dans l’équipe éditoriale. L’acte d’éditer est lui-même révolutionné : « Le « numérique » n’a donc pas changé seulement les techniques éditoriales, mais, plus généralement, le sens même de l’édition. » (Epron & Vitali-Rosati, 2018) Il s’agit du dernier aspect que nous souhaitons aborder, éditer un ouvrage entraîne la conception du système de publication, en fonction du type de publication et des contraintes inhérentes à la structure ou à la diffusion. Cela a un coût, mais la question ici est plutôt de construire, de maîtriser et de faire soi-même évoluer une chaîne de publication, cette activité devenant toute différente, « elle est une autre expérience du temps » (Crawford, 2016, p. 68).
Un système modulaire de publication implique un engagement important. La réappropriation des processus d’écriture par les auteurs et les éditeurs devient une urgence. Ne plus être seulement l’opérateur de ses outils d’édition, ou y être assujetti, requiert un certain degré d’ouverture et la découverte de nouvelles connaissances. À l’heure où la technologie est partout présente, et de plus en plus sans avoir accès à ses rouages ou sans pouvoir y interférer, la perspective d’une reprise en main est stimulante, surtout si le prix à payer est un apprentissage.
Notes
Les notes sont placées à la fin de ce document, à défaut de pouvoir être intégrées en pied de page ou dans les différentes parties concernées.
-
Le titre de cette introduction, « Faire avec le numérique », est une référence inconsciente au premier numéro de la revue Back Office, intitulé « Faire avec » (http://www.revue-backoffice.com/numeros/01-faire-avec). ↩
-
Un dépôt Git public permet à quiconque de contribuer : https://gitlab.com/antoinentl/systeme-modulaire-de-publication/. ↩
-
Une version PDF imprimable de ce mémoire est disponible en annexe. ↩
-
Une annexe est dédiée aux différentes réalisations en marge de ce mémoire, avec une bibliographie dédiée. ↩
-
Voir la bibliographie de ce mémoire. ↩
-
C’est ainsi qu’est présenté le blog Silicon Circus auquel participe grandement Evgeny Morozov, blog hébergé par Le Monde diplomatique http://blog.mondediplo.net/-Silicon-circus-. ↩
-
Il faut noter combien les critiques ou les pessimistes du numérique sont plus nombreux depuis plusieurs années : le très médiatique écrivain et philosophe Éric Sadin et sa critique de la « Siliconisation du monde » et du « technopouvoir », les activités des Éditions L’Échappée, ou encore certains écrits du philosophe Bernard Stiegler. ↩
-
Ivan Illich est un penseur de l’écologie politique du vingtième siècle. Parmi ses nombreux travaux et ouvrages, il a notamment mis en place une critique de la société industrielle et du fonctionnement de ses structures (école, médecine, transports). ↩
-
Jane Jacobs est une auteure et philosophe américaine de l’urbanisme et de l’architecture. Ses études et théories, basées sur l’observation, ont eu une influence importante sur l’urbanisme nord-américain. ↩
-
Michael Oakeshott est un historien et philosophe anglais dont les travaux se sont principalement concentrés sur la pensée politique, l’éducation, la philosophie de l’histoire ou encore la religion. ↩
-
Hans Jonas est un philosophe allemand. Le Principe responsabilité est son ouvrage le plus connu, il aborde la question de la technique en relation avec l’existence de l’humanité. ↩
-
James Scott est un chercheur américain dans le domaine des sciences politiques. ↩
-
Albert Hirschman est un économiste américain dont les recherches ont porté sur l’économie du développement ou l’économie politique. ↩
-
Nicholas Carr est un auteur américain connu entre autres pour son article « Is Google Making Us Stupid? » publié en 2008 dans The Atlantic, portant sur les effets néfastes que pourrait avoir Internet sur notre cerveau. ↩
-
Clay Shirky est un journaliste américain spécialisé dans les nouvelles technologies de l’information et de la communication. Il est l’auteur de Here Comes Everybody: The Power of Organizing Without Organizations, publié en 2008, qui compare le phénomène lié aux plates-formes de blog et aux réseaux sociaux avec l’apparition de l’imprimerie. ↩
-
Elizabeth Eisenstein est une historienne américaine dont les travaux les plus connus concernent l’histoire de l’imprimerie. ↩
-
Open Source Publishing, ou OSP, est un collectif d’individus dont les intérêts et les compétences vont du design graphique à la typographie en passant par le développement, la performance ou la cartographie. OSP a organisé un nombre important de workshops, notamment avec des étudiants, autour de la question de la publication. Voir en ligne : http://osp.kitchen/about ↩
-
Cela signifie que la seule obligation dans le cadre d’une réutilisation est celle d’indiquer la paternité, les modifications sont autorisées. ↩
-
Le dépôt de ce mémoire est disponible à l’adresse suivante : https://gitlab.com/antoinentl/systeme-modulaire-de-publication/ ↩
-
De nombreux articles souvent élogieux ont été publiés au moment du lancement de la revue, comme en atteste ce résultat de recherche. ↩
-
Plusieurs services de pad sont disponibles comme Framapad (https://framapad.org/) proposé par l’association Framasoft. ↩
-
La communauté autour du logiciel libre de publication assistée par ordinateur Scribus en est un exemple, dont l’objectif était de remplacer le logiciel propriétaire Adobe InDesign. ↩
-
Voir l’annexe Versions du mémoire pour en savoir plus sur la construction du document, et plus particulièrement des versions web et imprimée. ↩
Annexes
Lexique
Ce lexique constitue un outil pour la lecture de ce mémoire. Pour définir les termes présentés ci-dessous plusieurs ressources ont été utilisées, dont l’encyclopédie Wikipédia, le portail lexical du Centre national de ressources textuelles et lexicales, ainsi que les ouvrages et documents présentés dans la bibliographie en annexe. Lorsque des paraphrases ou des citations sont utilisées dans les définitions, une référence est précisée.
Asciidoc
AsciiDoc est un langage de balisage léger et le nom du programme qui permet de convertir des fichiers en AsciiDoc dans d’autres formats. Certains livres d’O’Reilly Media ont été fabriqués avec ce langage. Depuis 2013 la suite de programmes Asciidoctor tend à remplacer AsciiDoc en tant que programme.
BibTeX
BibTeX est un format de fichier permettant de gérer une base bibliographique, il a été conçu par Leslie Lamport et Oren Patashnik en 1985, originellement pour LaTeX même si aujourd’hui il est utilisé dans d’autres systèmes.
Chaîne de publication, chaîne d’édition, chaîne éditoriale
Une chaîne de publication, aussi appelée chaîne d’édition ou chaîne éditoriale, est un ensemble de méthodes et d’outils ordonnés qui remplissent des objectifs déterminés pour un projet éditorial.
Commit
Au sein du système de gestion de versions Git, un commit est un enregistrement accompagné d’un message, cela correspond à un état d’un projet géré avec Git.
CSS
Cascading Style Sheets, feuilles de style en cascade en français, est un langage informatique décrivant la mise en forme de documents structurés avec HTML. CSS est un standard défini par le World Wide Web Consortium (W3C).
EPUB
Le format EPUB, pour electronic publication, est le format du livre numérique. Ce standard, maintenu par l’International Digital Publishing Forum (IDPF) désormais intégré au W3C, permet de créer des publications numériques portables et reconfigurables. Il est possible de comparer le format EPUB à un site web encapsulé.
Générateur de site statique
Un générateur de site statique, static site generator ou SSG en anglais, est un programme permettant de transformer des fichiers écrits dans un format de langage de balisage léger en fichiers HTML organisés constituant un site web. Contrairement au système de gestion de contenu classique comme le CMS Wordpress, les générateurs de site statique n’utilisent pas de bases de données. Plus d’informations via le site de la communauté française Jamstatic : https://jamstatic.fr/.
Homothétique
L’homothétie caractérise deux situations similaires. Habituellement utilisé pour le livre numérique, ce qualificatif détermine la similitude entre un livre imprimé et son homologue numérique. Le livre numérique homothétique s’oppose au livre numérique enrichi qui peut comporter des éléments multimédias et des options de navigation avancées – et non simplement le feuilletage.
HTML
Hypertext Markup Language, langage de balisage hypertextuel en français, est un langage permettant de structurer un document qui est ensuite interprété par un navigateur web. HTML est associé à une feuille de style CSS pour pouvoir personnaliser la composition.
LaTeX
LaTeX est l’association d’un langage de balisage, TeX, et d’un processeur qui génère différents formats à partir de cette source (Rouquette, Chabannes, & Rouquette, 2012). Créé par Leslie Lamport en 1983 à partir de TeX de Donald Knuth — lui-même créé en 1977 —, LaTeX est pensé pour l’impression de documents — article, thèse, livre – et donc la production de fichiers PDF. LaTeX a précédé les interfaces à base de WYSIWYG.
Langage de balisage léger
Les langages de balisage léger sont l’application du mode WYSIWYM, le plus célèbre et répandu d’entre eux est Markdown. « Un langage de balisage n’est rien d’autre qu’un système d’annotation d’un document qui s’effectue d’une telle manière qu’il est possible de distinguer ces balises, ces annotations, du texte que l’on annote. » (Dehut, 2018)
Libre
Sont qualifiés de « libres » des logiciels ou des programmes qui répondent aux quatre critères suivants : « l’utilisation, l’étude, la modification et la duplication par autrui en vue de sa diffusion sont permises, techniquement et légalement » (source : Wikipédia). Il faut distinguer « libre » d’« open source ».
Livre web, web book
Un livre web, ou web book en anglais, est un un livre sous la forme d’un site web. Il s’agit d’un ensemble de pages structurées, organisées et rendues accessibles par un menu ou une table des matières ; les contenus s’adaptent formellement à la taille de l’écran, responsifs ou adaptatifs ; des liens hypertextes permettent de naviguer dans et en-dehors du livre ; certaines formes de « livre web » peuvent être consultées hors ligne (Fauchié, 2016).
Logiciel de publication assistée par ordinateur
Aussi appelé logiciel de PAO ou logiciel de composition, un logiciel de publication assistée par ordinateur permet de mettre en forme des documents dans l’objectif de les imprimer. InDesign est l’un des logiciels les plus connus et les plus utilisés.
Maintenabilité
La maintenabilité, en informatique, concerne la faculté à maintenir les composants d’un système pour permettre à ce dernier de fonctionner.
Markdown
« Inventé par John Gruber au début des années 2000, Markdown est un langage sémantique qui permet d’écrire du HTML — Hyper Text Markup Language — avec un système de balisage bien plus léger. D’abord plébiscité par les développeurs pour rédiger leur documentation, cette syntaxe est désormais de plus en plus employée, notamment dans des applications numériques qui cherchent à se passer d’interfaces WYSIWYG — What You See Is What You Get. » (Fauchié, s. d.)
Prince XML
Prince XML ou Prince est un logiciel propriétaire qui convertit des fichiers au format XML ou HTML en fichiers au format PDF en appliquant une feuille de style CSS.
Open source
Open source, ou code ouvert en français, désigne les possibilités de libre redistribution, d’accès au code source et de création de travaux dérivés pour un programme ou logiciel informatique. Si la démarche « libre » est un projet humain et politique, celle de l’open source vise avant tout l’évolution technique.
Traitement de texte
Un traitement de texte, ou word processor en anglais, est un logiciel dédié à l’écriture. Il permet, en théorie, de structurer et de mettre en forme un document. Dans les faits, le traitement de texte à tendance à favoriser une confusion entre structure et mise en forme (Reichenstein, 2016).
Vivliostyle
Vivliostyle est un programme permettant de convertir des fichiers HTML en appliquant une feuille de style CSS. C’est un concurrent libre de PrinceXML.
WYSIWYG
What You See Is What You Get, ce que vous voyez est ce que vous obtenez en français. Ce mode d’édition a été mis en place avec les premières interfaces graphiques dans le domaine informatique, facilitant d’abord la vie aux utilisateurs, puis étant critiqué pour la confusion qu’il crée entre structure et mise en forme.
WYSIWYM
What You See Is What You Mean, ce que vous voyez est ce que vous signifiez en français. Il s’agit de l’approche alternative au WYSIWYG redonnant du sens à l’acte d’inscription en indiquant clairement la structure du document et en se focalisant moins sur les aspects graphiques.
XML
Extensible Markup Language, ou langage de balisage extensible en français, est un langage informatique permettant de structurer du texte avec l’association d’une définition de type de document.
XML TEI
TEI, pour Text Encoding Initiative ou Initiative pour l’encodage du texte en français, définit un document type définition pour XML.
YAML
YAML, pour YAML Ain’t Markup Language, est un format de représentation de données.
Bibliographie
Cette bibliographie est également disponible sur Zotero sous forme d’un groupe, des références peuvent être ajoutées :
https://www.zotero.org/groups/2191614/vers_un_systme_modulaire_de_publication/items
Ouvrages
- Dacos, M. (Éd.). (2009). Read-write book: le livre inscriptible. Marseille, France: Centre pour l’édition électronique ouverte.
- Barthélémy, J.-H. (2008). D’une rencontre fertile de Bergson et Bachelard : l’ontologie génétique de Simondon. In Bachelard et Bergson (p. 223‑238). Presses Universitaires de France. Consulté à l’adresse http://www.cairn.info/bachelard-et-bergson–9782130570264-p-223.htm
- Benhamou, F. (2014). Le livre à l’heure numérique: papiers, écrans, vers un nouveau vagabondage. Paris, France: Éditions du Seuil.
- Burnard, L. (2015). La TEI et le XML. In Qu’est-ce que la Text Encoding Initiative ? Marseille: OpenEdition Press. Consulté à l’adresse http://books.openedition.org/oep/1298
- Chacon, S., & Straub, B. (2018). Pro Git Book. Consulté à l’adresse https://git-scm.com/book/fr/v2/
- Crawford, M. B. (2016). Éloge du carburateur: essai sur le sens et la valeur du travail. (M. Saint-Upéry, trad.). Paris, France: La Découverte.
- Demaree, D., & Brown, M. (2017). Git par la pratique. (A.-S. Gagnié Fradier, trad.). Paris, France: Eyrolles.
- Eghbal, N. (2017). Sur quoi reposent nos infrastructures numériques ? : Le travail invisible des faiseurs du web. Marseille: OpenEdition Press. Consulté à l’adresse http://books.openedition.org/oep/1797
- Epron, B., & Vitali-Rosati, M. (2018). L’édition à l’ère numérique. Paris: La Découverte. Consulté à l’adresse https://www.cairn.info/l-edition-a-l-ere-numerique–9782707199355.htm
- Epron, B., & Vitali-Rosati, M. (2018). L’édition à l’ère numérique. Éditions La Découverte. Consulté à l’adresse https://papyrus.bib.umontreal.ca/xmlui/handle/1866/20642
- Fauchié, A. (2017). Le livre web comme objet d’édition ? In Design et innovation dans la chaîne du livre. Paris, France: PUF.
- Frost, B. (2016). Atomic Design by Brad Frost. Consulté à l’adresse http://atomicdesign.bradfrost.com/
- Galloway, A. R. (2004). Protocol: how control exists after decentralization. Cambridge, Mass., Etats-Unis d’Amérique, Royaume-Uni de Grande-Bretagne et d’Irlande du Nord. Consulté à l’adresse https://monoskop.org/log/?p=81
- Gelgon, A. (2018). Un dialogue à réaliser : design et technique. In .txt 3 (p. 158). Paris: B42.
- Hamilton, N. W., Richard L. (2010). DocBook 5: The Definitive Guide. O’Reilly Media. Consulté à l’adresse http://shop.oreilly.com/product/9780596805012.do
- Illich, I. (2014). La convivialité. Paris, France: Éditions Points.
- Jaillot, B. (2015). La dette technique. Périgneux, France: le Train de 13h37.
- Kirschenbaum, M. G. (2016). Track changes: a literary history of word processing. Cambridge, Massachusetts, Etats-Unis d’Amérique: The Belknap Press of Harvard University Press, 2016. Consulté à l’adresse https://www.tug.org/TUGboat/tb38-1/tb118reviews-kirschenbaum.pdf
- Laumonier, A. (2014). 6: le soulèvement des machines ; 5 : retour vers le futur. Bruxelles, Belgique: Zones sensibles.
- Lebert, M. (2016). Le livre 010101 (1971-2015). Consulté à l’adresse https://www.010101book.net/fr/
- Lovink, G. (2002). Dark fiber: tracking critical internet culture. Cambridge, Mass., Etats-Unis d’Amérique.
- Ludovico, A., & Cramer, F. (2016). Post-digital print: la mutation de l’édition depuis 1894. (M.-M. Bortolotti, trad.). Paris, France: B42.
- Morozov, E. (2014). Pour tout résoudre, cliquez ici: l’aberration du solutionnisme technologique. (M.-C. Braud, trad.). Limoges, France: Fyp, impr. 2014.
- Pédauque, R. T., & Melot, M. (2006). Le document à la lumière du numérique. (J.-M. Salaün, éd.). Caen, France: C&F éditions.
- Rouquette, M., Chabannes, B., & Rouquette, E. (2012). (Xe)LaTeX appliqué aux sciences humaines. Tampere, Finlande: Atramenta.
- Salaün, J.-M. (2012). Vu, lu, su: les architectes de l’information face à l’oligopole du Web. Paris, France: La Découverte, impr. 2012.
- Simondon, G. (2012). Du mode d’existence des objets techniques. Paris, France: Aubier, impr. 2012.
- Tschichold, J., & Kinross, R. (2016). La nouvelle typographie: un manuel pour les créateurs de leur temps. (P. Buschinger & F. Buschinger, trad.). Paris, France, Suisse.
- Tschichold, J., & Paris, M. (2011). Livre et typographie: essais choisis. (N. Casanova, trad.). Paris, France: Éditions Allia.
- Vallance, D. (2015). Décrire des modèles. In .txt 2 (p. 126). Paris: B42.
- Vial, S., & Catoir-Brisson, M.-J. (2017). Design et innovation dans la chaîne du livre: écrire, éditer, lire à l’ère numérique. Paris, France: Presses universitaires de France-Humensis.
- Vitali Rosati, M., & Eberle-Sinatra, M. (2014). Pratiques de l’édition numérique. Montréal, Canada: Presses Universitaires de Montréal.
Articles
- Fauchié, A. Markdown comme condition d’une norme de l’écriture numérique. Réél - Virtuel.
- Fauchié, A., & Parisot, T. Repenser les chaînes de publication par l’intégration des pratiques du développement logiciel. Sciences du design, (8).
- Figer, J.-P. (2009). L’accumulation du logiciel : de la programmation à « l’informatique dans les nuages » [cloud computing]. Annales des Mines - Réalités industrielles, Mai 2009(2), 36‑41. https://doi.org/10.3917/rindu.092.0036
- Guichard, É. (2008). L’écriture scientifique. Consulté à l’adresse https://halshs.archives-ouvertes.fr/halshs-00347616/document
- Guichard, É. (2014). L’internet et les épistémologies des sciences humaines et sociales. Revue Sciences/Lettres, (2). https://doi.org/10.4000/rsl.389
- Longhi, C., & Rochhia, S. (2014). « Ceci tuera cela » ? Dynamique des changements dans l’industrie du livre. Revue d’économie industrielle, (145), 121‑154. https://doi.org/10.4000/rei.5761
- Marti, É. (2008). Les enjeux du livre au format de poche. Culture études, (4), 1‑8. https://doi.org/10.3917/cule.084.0001
- Masure, A. (2011). Adobe Le créatif au pouvoir ? Strabic. Consulté à l’adresse http://strabic.fr/Adobe-le-creatif-au-pouvoir
- Masure, A. (2014). Visual Culture Open Source Publishing, Git et le design graphique. Strabic. Consulté à l’adresse http://strabic.fr/OSP-Visual-Culture
- Maudet, N. (2017). Muriel Cooper, Information Landscapes. Back Office, (1). Consulté à l’adresse http://www.revue-backoffice.com/numeros/01-faire-avec/nolwenn-maudet-muriel-cooper-information-landscapes
- Olah, C., & Carter, S. (2017). Research Debt. Distill, 2(3), e5. https://doi.org/10.23915/distill.00005
- Renou-Nativel, C. (2012). Les polices ont du caractère. Les polices ont du caractère. La Croix. Consulté à l’adresse https://www.la-croix.com/Archives/2012-11-15/Les-polices-ont-du-caractere.-Les-polices-ont-du-caractere-_NP_-2012-11-15-876569
- Schrijver, E. (2017). Culture hacker et peur du WYSIWYG. Back Office, (1). Consulté à l’adresse http://www.revue-backoffice.com/numeros/01-faire-avec/eric-schrijver-culture-hacker-peur-wysiwyg
- Stern, N., Guédon, J.-C., & Jensen, T. W. (2015). Crystals of Knowledge Production. An Intercontinental Conversation about Open Science and the Humanities. Nordic Perspectives on Open Science, 1(0), 1‑24. https://doi.org/10.7557/11.3619
- Stiegler, B. (2006). Chute et élévation., Topics on the pre-invividual capital of desire and religious trans-individuation. Revue philosophique de la France et de l’étranger, Tome 131(3), 325‑341. https://doi.org/10.3917/rphi.063.0325
- Wu, T. (2013). Book review: ‘To Save Everything, Click Here’ by Evgeny Morozov. Washington Post. Consulté à l’adresse https://www.washingtonpost.com/opinions/book-review-to-save-everything-click-here-by-evgeny-morozov/2013/04/12/0e82400a-9ac9-11e2-9a79-eb5280c81c63_story.html
Thèses
- Arribe, T. (2014, novembre). Conception des chaînes éditoriales (PhD thesis). Université de Technologie de Compiègne. Consulté à l’adresse https://ics.utc.fr/ tha/co/Home.html
- Masure, A. (2014, novembre). Le design des programmes (PhD thesis). Université Paris1 Panthéon-Sorbonne. Consulté à l’adresse http://www.softphd.com/
Billets de blog, conférences, vidéos, émissions de radio, divers
- André, P. (2009). Compte rendu : « L’impression à la demande : une révolution pour l’objet-livre ? ». L’Édition électronique ouverte. Billet. Consulté à l’adresse https://leo.hypotheses.org/2891
- Attwell, A. (2017, mai). I love you, InDesign, but it’s time to let you go. Electric Book Works. Consulté à l’adresse https://electricbookworks.com/thinking/i-love-you-indesign-but/
- Attwell, A. (2018, janvier). Book production with CSS Paged Media at Fire and Lion. Paged Media. Consulté à l’adresse https://www.pagedmedia.org/book-production-with-css-paged-media-at-fire-and-lion/
- Attwell, A. (2017, août). Fire and Lion: Producing The Economy: a case study in multi-format book production. Fire and Lion. Consulté à l’adresse http://fireandlion.com/thinking/2017/08/29/producing-the-economy-with-the-ebw-case-study/
- Biilmann, M. (2015, novembre). Static Site Generators Reviewed: Jekyll, Middleman, Roots, Hugo. Smashing Magazine. Consulté à l’adresse https://www.smashingmagazine.com/2015/11/static-website-generators-jekyll-middleman-roots-hugo-review/
- Blanc, J. (2018, janvier). Paged Media approaches. Paged Media. Consulté à l’adresse https://www.pagedmedia.org/paged-media-approaches-part-1-of-2/
- Blanc, J., & Fauchié, A. (2017, novembre). (Re)Penser les chaînes de publication : soutenabilité et émancipation. Colloque, Orléans.
- Bon, F. (2016, décembre). Le Print on Demand est mort (et imprimé). le tiers livre. Consulté à l’adresse http://www.tierslivre.net/spip/spip.php?article4376
- Bortzmeyer, S. (2001, janvier). After Word: l’avenir du traitement de texte. Blog Stéphane Bortzmeyer. Consulté à l’adresse http://www.bortzmeyer.org/afterword.html
- Cramer, D. (2017, février). Beyond XML: Making Books with HTML. XML.com. Consulté à l’adresse https://www.xml.com/articles/2017/02/20/beyond-xml-making-books-html/
- Dehut, J. (2018, janvier). En finir avec Word ! Pour une analyse des enjeux relatifs aux traitements de texte et à leur utilisation. Billet. Consulté à l’adresse https://eriac.hypotheses.org/80
- Donnot, K. (2013, août). Code = design. Centre national des arts plastiques. Consulté à l’adresse http://www.cnap.fr/code-design
- Evan Lan, R. (2016, mai). An Editor’s View of Digital Publishing. The Getty Iris. Consulté à l’adresse http://blogs.getty.edu/iris/an-editors-view-of-digital-publishing/
- Fauchié, A. (2013, mars). Zeitgeist : le fond, la forme, et le reste. quaternum. Consulté à l’adresse https://www.quaternum.net/2013/03/29/zeitgeist/
- Fauchié, A. (2017, juin). Workshop PrePostPrint Chercher, manipuler, partager, imprimer. Strabic. Consulté à l’adresse http://strabic.fr/Workshop-PrePostPrint
- Fauchié, A. (2018, avril). Une réappropriation des données par leur structuration. quaternum. Consulté à l’adresse https://www.quaternum.net/2018/04/04/une-reappropriation-des-donnees-par-leur-structuration/
- Fauchié, A. (2018, avril). Git comme nouvel ingrédient des chaînes de publication. Montréal, Canada. Consulté à l’adresse http://presentations.quaternum.net/git-comme-nouvel-ingredient-des-chaines-de-publication/
- Fauchié, A. (2016, octobre). Le livre web, une autre forme du livre numérique. quaternum.net. Consulté à l’adresse https://www.quaternum.net/2016/10/24/le-livre-web-une-autre-forme-du-livre-numerique/
- Fauchié, A. (2017, mars). Une chaîne de publication inspirée du web. quaternum. Consulté à l’adresse https://www.quaternum.net/2017/03/13/une-chaine-de-publication-inspiree-du-web/
- Fauchié, A. (2015, juillet). From — To : une publication contemporaine. quaternum. Consulté à l’adresse https://www.quaternum.net/2015/07/07/from-to/
- Faucilhon, J. (2016, mai). Production de livres numériques et dette technique. L’Atelier Lekti. Consulté à l’adresse http://www.lekti.fr/blog/index.php/post/2016/05/14/Production-de-livres-num%C3%A9riques-et-dette-technique
- Fomook, J. (2017, juin). We’re reinventing, too. O’Reilly Media. Consulté à l’adresse https://www.oreilly.com/ideas/were-reinventing-too
- Gardner, E. (2017, janvier). Publier des livres avec un générateur de site statique. Consulté à l’adresse https://jamstatic.fr/2017/01/23/produire-des-livres-avec-le-statique/
- Gardner, E. (2015, novembre). Building Books with Middleman Extensions. Eric Gardner. Consulté à l’adresse https://ericgardner.info/writing/2015/building-books-with-middleman/
- Guichard, É. (2008, décembre). L’écriture scientifique. Consulté à l’adresse https://halshs.archives-ouvertes.fr/halshs-00347616/document
- Jampolsky, M. (2017). Gutenberg, l’aventure de l’imprimerie.
- Kehe, J. (2016, avril). One-Man Publisher Revives ’Flatland’ With a Sumptuous New Edition To Show Print Isn’t Dead. WIRED. Consulté à l’adresse https://www.wired.com/2016/04/books-arent-dead-new-flatland/
- Keith, J. (2016, décembre). Introducing Resilient Web Design. Adactio. Consulté à l’adresse https://adactio.com/journal/11608
- Keith, J. (2017, janvier). Making Resilient Web Design work offline. Adactio. Consulté à l’adresse https://adactio.com/journal/11730
- Keith, J. (2016, décembre). The many formats of Resilient Web Design. Adactio. Consulté à l’adresse https://adactio.com/journal/11670
- Masure, A. (2018, avril). Mutations du livre Web. Montréal, Canada. Consulté à l’adresse http://www.anthonymasure.com/conferences/2018-04-livre-web-ecridil-montreal
- Masure, A. (2018). Comment le design peut-il changer les façons de faire de la recherche ? Consulté à l’adresse http://www.anthonymasure.com/conferences/2018-05-journees-doctorales-cnam
- Muller, C. (2016, février). Édition XML-TEI, écriture et document numérique : retour sur la Biennale du numérique 2015. enssib. Consulté à l’adresse http://www.enssib.fr/recherche/enssiblab/les-billets-denssiblab/biennale-du-numerique-edition-numerique-encodage-xml-tei
- OSP. (2017, février). HTML sauce cocktail, sauce à part. Consulté à l’adresse http://ospublish.constantvzw.org/blog/news/html-sauce-cocktail-sauce-a-part
- Parent, J. (1968). Gilbert Simondon Entretien sur la mécanologie [complet] 1968 (R1: Bobine 1 de 3). Consulté à l’adresse https://www.youtube.com/watch?v=VLkjI8U5PoQ
- Perret, A. (2018, juin). Sémiotique des fluides. Infologie. Billet. Consulté à l’adresse https://infologie.hypotheses.org/33
- Portis-Guérin, M., & Berger, N. (2016, avril). Gilbert Simondon (1/4) : Du mode d’existence d’un penseur technique. Les nouveaux chemins de la connaissance. Consulté à l’adresse https://www.franceculture.fr/emissions/les-nouveaux-chemins-de-la-connaissance/gilbert-simondon-14-du-mode-d-existence-d-un
- Reichenstein, O. (2016, juin). Multichannel Text Processing - iA. iA Blog. Consulté à l’adresse https://ia.net/topics/multichannel-text-processing
- Rosenthal, D. (2017, mai). Distill, Is This What Journals Should Look Like? Consulté à l’adresse https://blog.dshr.org/2017/05/distill-is-this-what-journals-should.html
- Sauret, N. Entretien avec Jean-Claude Guédon : on « crystal of knowledge » · Nicolas Sauret. Nicolas Sauret. Consulté à l’adresse http://nicolassauret.net/carnet/2017/04/12/entretien-avec-jean-claude-guedon-on-crystal-of-knowledge/
- Sinard, A. (2017, mars). L’invention du livre de poche, entre démocratisation de la lecture et réactions épidermiques. France Culture. Consulté à l’adresse https://www.franceculture.fr/litterature/linvention-du-livre-de-poche-entre-democratisation-de-la-lecture-et-reactions
- Taillandier, F. (2016, mars). La mouvance statique. Frank Taillandier. Consulté à l’adresse https://frank.taillandier.me/2016/03/08/les-gestionnaires-de-contenu-statique/
- Tangaro, B. (2017, juin). De la page au flux : la conception du livre numérique. DLIS. Billet. Consulté à l’adresse http://dlis.hypotheses.org/1255
- Taquet, J. (2017, février). Making books with HTML + CSS — a look at Vivliostyle (Part 1 – page layouts). Consulté à l’adresse https://www.pagedmedia.org/making-book-with-html-css-a-look-at-vivliostyle-part-1-page-layouts/
- Têtue, R. (2014, juillet). What you see is what you… ? text. Consulté à l’adresse http://romy.tetue.net/wysiwyg-wysiwym-wysiwyc
- Vitali Rosati, M. Une réflexion sur l’édition à l’époque du numérique par Marcello Vitali-Rosati. DLIS. Billet. Consulté à l’adresse http://dlis.hypotheses.org/1014
- Vitali-Rosati, M. (2018, mars). Les chercheurs en SHS savent-ils écrire ? Consulté à l’adresse http://theconversation.com/les-chercheurs-en-shs-savent-ils-ecrire-93024
- Vitali-Rosati, M. (2017, mai). Qu’est-ce qu’une revue scientifique ? Et… qu’est-ce qu’elle devrait être ? The Conversation. Consulté à l’adresse http://theconversation.com/quest-ce-quune-revue-scientifique-et-quest-ce-quelle-devrait-etre-77986
- Vitali-Rosati, M. (2018, mars). Les chercheurs en SHS savent-ils écrire ? Culture numérique. blogPost. Consulté à l’adresse http://blog.sens-public.org/marcellovitalirosati/les-chercheurs-en-shs-savent-ils-ecrire/
- Vitali-Rosati, M. (2018, juin). Stylo : un éditeur de texte pour les sciences humaines et sociales. Culture numérique. blogPost. Consulté à l’adresse http://blog.sens-public.org/marcellovitalirosati/stylo/
- Vitali-Rosati, M. (2016, novembre). Édition GAFAM et édition savante : une bataille en cours ? The Conversation. Consulté à l’adresse http://theconversation.com/edition-gafam-et-edition-savante-une-bataille-en-cours-68754
- GitHub. (2018). Empowering non-developers to use Git - Git Merge 2018. Consulté à l’adresse https://www.youtube.com/watch?v=pY5i0Io86UQ&feature=youtu.be
- Web en Vert. Documentation as code (expliqué à mon père) — Hubert Sablonnière. Consulté à l’adresse https://www.youtube.com/watch?v=1rKgVF5CEEY
- Xavier de la Porte. Place de la toile, « Spéciale édition numérique ». France Culture. Consulté à l’adresse http://archive.org/details/PlaceDeLaToilespcialeditionNumrique
Autour du mémoire
La réalisation de ce mémoire a été l’occasion de proposer des articles pour des revues académiques et des communications pour des colloques universitaires, ainsi que de rédiger des articles pour des sites ou des carnets, voici une bibliographie qui réunit les initiatives satellites autour de ce travail de recherche :
- Blanc, J., & Fauchié, A. (2017, novembre). (Re)Penser les chaînes de publication : soutenabilité et émancipation. Colloque, Orléans.
- Fauchié, A. (2017). Workshop PrePostPrint Chercher, manipuler, partager, imprimer. Strabic. Consulté à l’adresse http://strabic.fr/Workshop-PrePostPrint
- Fauchié, A. (2017, janvier). Publier des livres avec un générateur de site statique. Jamstastic. Consulté à l’adresse https://jamstatic.fr/2017/01/23/produire-des-livres-avec-le-statique/
- Fauchié, A. (2017, mars). Une chaîne de publication inspirée du web. quaternum. Consulté à l’adresse https://www.quaternum.net/2017/03/13/une-chaine-de-publication-inspiree-du-web/
- Fauchié, A. (2018, avril). Une réappropriation des données par leur structuration. quaternum. Consulté à l’adresse https://www.quaternum.net/2018/04/04/une-reappropriation-des-donnees-par-leur-structuration/
- Fauchié, A. (2018, avril). Git comme nouvel ingrédient des chaînes de publication. Montréal, Canada. Consulté à l’adresse http://presentations.quaternum.net/git-comme-nouvel-ingredient-des-chaines-de-publication/
- Fauchié, A. Markdown comme condition d’une norme de l’écriture numérique. Réél - Virtuel.
- Fauchié, A., & Parisot, T. Repenser les chaînes de publication par l’intégration des pratiques du développement logiciel. Sciences du design.
- Codeurs en Seine. README.book, Thomas Parisot et Antoine Fauchié. Consulté à l’adresse https://www.youtube.com/watch?v=25wCiZVLNBg
À propos
Ce document, que vous lisiez la version web, la version PDF ou la version imprimée, est le mémoire d’Antoine Fauchié sous la direction d’Anthony Masure et de Marcello Vitali-Rosati. Il s’agit d’un travail de recherche réalisé dans le cadre d’une Validation des acquis de l’expérience (VAE) en Master Sciences de l’information et des bibliothèques, spécialité Publication numérique à l’Enssib.
Soutenance
La soutenance de ce mémoire a eu lieu vendredi 28 septembre 2018 à l’Enssib. Ouverte au public, elle a réuni une quinzaine de personnes, que les participant
s soient ici remercié s.Version
Version v1.1, datée du mardi 26 mars 2019.
Site web : https://memoire.quaternum.net
Licence
Licence Creative Commons BY-NC-SA, Attribution-NonCommercial-ShareAlike 4.0 International. Vous êtes libre d’utiliser et de modifier les textes de ce mémoire à condition de me citer systématiquement, de ne pas faire d’usage commercial de votre utilisation, et de partager votre version dans les mêmes conditions indiquées ici, donc avec la même licence.
Fabrication
Ce mémoire est fabriqué avec les langages, composants, programmes et logiciels suivants :
- langage de balisage léger Markdown ;
- générateur de site statique Jekyll ;
- extensions pour Jekyll : jekyll-scholar et jekyll-microtypo ;
- système de gestion de versions Git ;
- plate-forme d’hébergement de dépôt Git GitLab ;
- déploiement continu, hébergement et CDN : Netlify ;
- script paged.js pour la conversion HTML > PDF ;
- éditeur de texte et IDE : Atom ;
- navigateur web : Mozilla Firefox ;
- logiciel de gestion de références bibliographiques : Zotero.
Ce mémoire a été écrit avec ♥ et quelques gouttes de sueur en écoutant la playlist suivante :
- Lebanon Hanover - Gallowdance
- Shannon Wright - With Closed Eyes
- Human Tetris - Things I Don’t Need
- Battles - Futura
- girlpool - Soup
- Swans - Bring the Sun
- Franz Schubert - La mort et la jeune fille
- Cigarettes After Sex - Dreaming of You
- Shellac - Cooper
- Andy Shauf - Wendell Walker (Live at The Drake Hotel)
- Mogwai - Olds Poisons
- Mix - Modular ambient
- r beny - Spring in Blue