05/25/2005
Blog et journal . sur le blog . 2
Blog et journal . sur le blog . 2.
Mercredi 25 Mai 2005
Cet article fait suite à sur le blog . 1 . Comme pour le précédent, la substance de ce texte a été présentée lors du colloque d’Aix, « Ecritures d’écran », les 18 et 19 Mai 2005.
définitions hasardeuses
Dans le texte précédent, j’ai cité quelques définitions du blog que je ne trouve pas mauvaises, notamment celle de Jill Walker.
Il y a toute une littérature consacrée à « définir » le blog.
On retrouve, comme presque toujours avec les technologies de la communication, la polarisation entre les deux tendances de Mac Luhan : medium et contenu, souvent confondues avec : technique et contenu, voire technique et usages.
Je ne pense pas d’ailleurs qu’il soit possible de réduire un objet de communication à une seule de ces tendances, ni même à leur association : il faut encore montrer le jeu des subjectivités (qui ?) et de la légitimité (pourquoi ?).
Mais la définition la plus fréquente du weblog consiste à partir soit de ses fonctionnalités, comme je l’ai fait dans la note précédente, soit de l’idée de « journal ».
C’est cette deuxième approche que j’examine ici.
Tiré du Merriam-Webster on line :
“Blog : a Web site that contains an online personal journal with reflections, comments, and often hyperlinks provided by the writer.”
Cette définition du blog comme «un site web qui contient un journal personnel en ligne» est mauvaise sur le fond et curieuse dans la forme.
Un site web est nécessairement en ligne ; à moins qu’on veuille mettre l’accent sur la différence entre journal personnel, en général, et journal personnel en ligne ; auquel cas, ce serait cette distinction qui définirait le blog et non pas son caractère général de site web.
Le seul « avantage » de cette définition du Webster est d’être d’une parfaite orthodoxie mac- luhannienne, avec son articulation medium/contenu.
L’article cité dans le texte précédent, “Blogging as social activity” montre ainsi que « les blogs ont été progressivement décrits comme des journaux intimes ou personnels en ligne ».
“They have been increasingly portrayed as online diaries or personal journals.”
A un degré ou à un autre, cette définition a été abondamment reprise par les médias, récemment dans des organes aussi différents que Business Week, SVMicro, ou la Gazette du Palais .
Cette définition est évidemment à rapprocher du débat copieux sur les relations entre la presse et les blogs, le rôle des blogs dans la formation de l’opinion publique, etc, que je ne traiterai pas maintenant.
point de méthode
Que l’on veuille définir le blog à partir du journal de presse ou du journal de bord, du journal personnel ou intime, une précaution doit être prise.
Que veut dire « journal en ligne »?
Est ce un journal X que l’on met en ligne ? Dans ce cas, Libération, mis en ligne, devient « Libération en ligne », et un journal intime que son auteur décide de mettre sur le web devient « le journal intime de X en ligne ».
Ou bien est ce un objet qui dans le monde du réseau, du web, est l’équivalent du journal dans le monde de l’écriture manuelle ou de l’imprimé ?
Dans ce deuxième raisonnement, par homothétie, je ne veux pas dire que le journal en ligne est vraiment un journal, mais simplement qu’il a une capacité à s’associer au web, semblable à celle du quotidien de presse à se combiner avec l’imprimerie. Au fond il y a matière à comparaison, mais sûrement pas identification.
Dans ce deuxième cas, Slashdot, dans le monde du web, pourra être comparé au Libération du début dans le monde imprimé. Mais Slashdot et Libération en ligne ne sont pas le même objet technique.
On sait que ce point crucial de conception –qui rejoint mais ne se confond pas avec la question des métaphores- a soulevé les interventions critiques de Tim Berners Lee à propos du courrier électronique.
Encore que dans le cas du e-mail, le point de comparaison : le courrier traditionnel, pouvait sembler (probablement à tort) ne pas soulever de grosses difficultés de compréhension.
En revanche, la notion de « journal » est beaucoup plus floüe, puis qu’aussi bien en anglais qu’en français, elle hésite, dans le cas du blog, entre le mass et le self media, entre le journal de presse et le journal « personnel ».
Mais qu’est-ce qu’un journal personnel ?
journal
Quelle est la référence ?
A juste titre, le colloque d’Aix, « Ecrits d’écran » nous invitait à réfléchir sur les blogs comme « récits de soi, écritures collectives, journalisme ».
Cette formule « récits de soi » interrogeait la forme journal avant son développement comme média, dans la perspective posée par Michel Foucault des techniques de soi, et, en particulier, d’une écriture de soi.
Rappelons ces hypomnemata, écrits aide-mémoire, dont Foucault dit qu’ « au sens technique, ils pouvaient être des livres de compte, des registres publics, des carnets individuels servant d’aide-mémoire… ».
Dans cette perspective, avant le journal de presse, prière du matin de l’homme moderne, selon Hegel, nous devrions donc nous intéresser à la fois au journal d’opérations, et au journal de publication de soi, (« publicatio sui »), qu’il soit subjectif ou objectif.
Le journal d’opérations enregistre une journée d’activité d’une personne, d’un groupe, d’une entité. Le journal pour la comptabilité double, inventée par Luca Pacioli, ou le journal de navigation, le cabin-log, sont des exemples de ce journal d’opérations.
La première chose qui caractérise ce journal, et lui donne son nom, c’est l’importance donnée à la mesure par le temps.
On passe de la durée « naturelle », le temps mis pour aller de tel à tel point, ou à effectuer telle ou telle tâche, qui à l’occasion pourra elle même servir de référence analogique, et dont m’écriture sera marquée par les rites, la dimension qualitative des activités, et l’événement, à une durée « artificielle », équipée (montres et horloges), standardisée, discrète, et tournée vers le quantitatif et la programmation des tâches.
Même quand il ne se passe rien, quelque chose passe : le temps.
La deuxième caractéristique du journal d’opérations, c’est son caractère préparatoire ou « premier ». Il permet d’enregistrer la matière diverse disposée à être exploitée plus systématiquement plus tard.
C’est ainsi que le journal prépare le livre de comptabilité. En apparence, il est moins normalisé et autorise les annotations. On retrouverait ce processus dans les conseils d’écriture ethnographique de Marcel Mauss.
Aussi bien, le journal d’opérations ne se cantonne t-il pas à un journal d’actions, ou de choses ; il est souvent aussi un écrit d’observation (journal « objectif »), ou de réflexion (journal « subjectif »). Le journal de navigation est ainsi devenu un objet favori de la littérature.
le mémoire des jours
Le vocabulaire est assez éclairant.
En italien, on appellera ricordi, choses enregistrées (rapportées au cœur), les premiers éléments de pièces comptables, mais aussi bien les écrits de Guichardin, fragments dans le style de Machiavel ou Gracian, qu’il ne chercha jamais à publier malgré leur grande qualité littéraire. Les florilèges, ou recueils de citations, peuvent par exemple, s’apparenter à un journal, pour autant que la contrainte de datation soit respectée.
Sur la polarisation entre « journal subjectif » et « objectif », on pourrait citer la définition du mot « Mémoires » dans le Littré : « ouvrage faisant le récit des événements dont on a été témoin », soit comme « relation de faits particuliers pour servir à l’histoire », soit comme « récit où sont racontés les événements de la vie d’un particulier ».
Voilà le grand art de la définition ; en somme, un journal n’est rien d’autre que le mémoire des jours.
Quand à la prière du matin, il faut revenir à la méthode homothétique. Il est peu probable que Hegel ait considéré la lecture du journal quotidien comme une prière. Il n’est pas non plus vraisemblable qu’il ait voulu dire que le journal remplacerait la prière. Je pense plutôt qu’il voulait indiquer que la lecture du journal était à l’espace public moderne de type kantien, ce que la prière (oratio et meditatio) était au monde culturel organisé d’abord par la religion.
Ce qui ne nous éloigne pas des « techniques de soi », mais au contraire, nous en rapproche.
retour sur le weblog
Survol un peu rapide, mais détour un peu long, pour en revenir aux blogs, avec cette hypothèse : nous retrouvons ces éléments de l’écriture du journal comme technique de soi dans les premiers weblogs, les weblogs des pionniers, la forme originale dont s’est détaché le blog.
Quelques repères chronologiques, sur cette préhistoire du blog:
On considère couramment – et c’est bien vu- que le premier weblog est le premier site web, le site créé par Tim Berners Lee lui même, au CERN. A partir de ce site, TBL pointait sur chaque nouveau site, au fur et à mesure des créations.
En Juin 93, la NCSA et Netscape créèrent leur liste de liens, les What’s New.
Cette époque de lancement est celle des weblogs universels.
En Janvier 94, Justin Hall créa ce qui allait devenir Links from the Underground.
En 97, Dave Winer créa Scripting News et Slashdot fit son apparition.
Novembre 98 : première liste de blogs sur Camworld, de Cameron Barrett.
A la manière des journaux d’atelier, ou de navigation, ces premiers weblogs consignaient l’enregistrement d’opérations.
Ces opérations sont des opérations de veille, de filtre et d’aiguillage.
Fondamentalement elles visent et permettent de renforcer la connectivité du réseau. Il est courant de lire que dès qu’on est « sur internet » on est en réseau. Peut être, mais, fondamentalement, on est en réseau parce qu’on fabrique du réseau.
Le log enrichissait le web, le web était la condition et la matière du log.
J’ai proposé ailleurs de considérer cette activité de journal, ce travail de réseau comme des opérations de lecture numérique. Plus précisément, c’est la contribution des premiers weblogueurs, et plus tard des premiers blogueurs, qui m’a poussé à réfléchir sur le rôle des lecteurs numériques.
Rapidement, les premières listes de liens ont été enrichies par des commentaires, des annotations, des gloses. En anglais, le « log » devenait un « personal journal », et parfois un « diary ». En français, le journal d’opérations devenait journal objectif, subjectif, parfois intime.
La chronique, analyse datée, à partir d’un florilège de liens centrés sur un même sujet devenait un genre à part entière de l’écriture web. Puis les choses se développèrent de manière symétrique : ceux qui ouvraient des sites à partir de 1998 trouvaient facilement des sites à commenter, surtout quand ils voulaient traiter de l’internet…Les listes de liens florissaient, mais l’activité de mise à jour semblait trop complexe pour ces nouveaux lecteurs-auteurs du web: il fallait passer au blog.
la question du format
Ainsi le blog serait ce qui se détache du weblog en tentant de généraliser les éléments de techniques de soi caractéristiques de ce dernier.
En recourant à cette notion de « techniques de soi » je ne vise pas à évaluer sa pratique et sa signification; je la constate, ce qui permet de re-qualifier la référence au journal pour définir le blog.
Autrement dit, plutôt que de penser le blog comme le passage de telle ou telle forme du monde de l’écrit manuel ou de l’imprimé vers le numérique, je propose de voir les choses ainsi :
Le blog serait pour tout sujet ce que les premiers weblogs étaient pour les seuls sujets du web.
Comprendre le blog nécessite de se placer à l’intérieur de la jeune histoire de l’écrit numérique, largement endogène, plutôt que de raisonner par importation ou intégration successive des formes ou genres caractéristiques des autres types techniques d’écrits.
C’est ainsi que peut se comprendre la notion de journal, passablement obscurcie par le débat sur « blogs et journalisme de presse ».
La banalisation du blog constitue une étape décisive dans le programme du « self media » numérique, après le P.C, la PAO, l’hypertexte, et le web.
Elle s’accompagne d’une normalisation de l’expression, d’un format dans lequel la datation et la présentation chronologique inversée jouent un rôle clé.
Une question reste ouverte : dans quelle mesure un tel format est il durablement adapté à cette extension de l’ expression individuelle ?
Je discuterai cette question, à partir de ma propre expérience, dans la prochaine version de log sur le blog.
Mais jusqu’ici, je n’ai que peu abordé la notion de « journal intime » et le ferai dans la dernière partie, consacrée aux Skyblogs.
(Suite et fin à venir)
Rédigé à 16:31 dans Publications | Lien permanent | Commentaires (0) | TrackBack
04/18/2005
lecture et memoire .1. la reference
lecture et mémoire : à partir de Hugues de Saint Victor
18 Avril 2005
Ce texte reprend une conférence donnée à Marseille dans le cadre de Memoria.
J’en ai modifié le titre initial et conservé la présentation orale.
Lors de cette conférence, à la Friche de la Belle de mai, Pierre Oudart lût l’extrait d’Hugues de Saint Victor, présenté au début, et anima le débat. Je le remercie de s’être penché, avec moi, sur les « indications d’un auteur occulté ».
Après cet extrait, je donnai quelques éléments sommaires sur l’époque et l’auteur. Sur le blog, elles sont plus détaillées et regroupées dans la Note sur Hugues de Saint Victor, qui pourra donc servir de rappel introductif, et, plus tard, de guide de lecture à ceux qui souhaiteraient aller plus loin.
(Première partie)
exils
« Enfin une terre étrangère est proposée, car elle aussi exerce l’homme. Le monde entier est un exil pour ceux qui philosophent.
Parce que, comme dit le poète :
« Je ne sais par quelle douceur le sol natal attire chacun,
Et ne leur permet pas de l’oublier »,
C’est un grand principe de vertu pour un esprit exercé d’apprendre peu à peu d’abord à changer ces choses visibles et transitoires afin de pouvoir ensuite les abandonner.
Il est encore bien délicat celui à qui la patrie est douce ; il est déjà fort celui pour qui toute terre est une patrie ; mais il est parfait celui à qui le monde tout entier est un exil. Le premier a attaché son amour au monde ; le second l’a disséminé ; le troisième l’a éteint.
Pour moi, j’ai quitté ma patrie dès l’enfance, et je sais avec quelle tristesse parfois l’âme abandonne l’étroit domaine d’une pauvre chaumière ; avec quelle liberté elle méprise ensuite les demeures de marbre et les toits lambrissés. »
Le texte que Pierre Oudart vient de lire est issu du Didascalicon, l’art de lire d’Hugues de Saint Victor.
La semaine dernière, Christian Jacob a abordé les relations entre la mémoire et la lecture à partir de l’exemple de la Bibliothèque d’Alexandrie. Cette fois, nous nous appuierons sur ce livre d’un grand maître de lecture du XIIème siècle.
Le Didascalicon examine trois choses : ce qu’il faut lire ; dans quel ordre ; et comment.
Je m’inspirerai de ce plan, en examinant successivement : la question de la REFERENCE (Quoi ?) ; la question de l’ORDRE des textes, interne et externe ; enfin la question de la MEMOIRE et de sa relation à la lecture, qui est un peu celle de la méthode.
Pour finir, nous reviendrons à l’extrait, en essayant de le comprendre selon la méthode d’Hugues de Saint Victor.
la référence
lettrés en latin
Le signe distinctif du lettré médiéval, c’est l’usage du latin ; plutôt : la maîtrise du latin, c’est la définition même du lettré.
Philippe ARIES (préface à Eugène GARIN, « Education de l’homme moderne ») souligne le « grand fait essentiel, à savoir qu’il a existé un seul type d’école pour les litterati depuis l’époque mérovingienne jusqu’au XVIIIe siècle, pendant plus d’un millénaire, et que c’est l’école latine ».
Or le Didascalicon peut être considéré comme un des manifestes majeurs de l’école latine, au XIIème siècle, à peu près au milieu de son âge, selon la durée proposée par Ariès.
L’origine de l’école latine, sa matrice sont parfaitement connues : c’est la paideia des grecs adaptée par les romains, telle qu’H-I Marrou en a donné une étude classique. Mais l’école latine après Rome, sans Rome, bientôt sans latin, est autre chose. Elle se maintient jusqu’au huitième siècle, puis sa tradition ne se transmet qu’à grand’peine, malgré l’effort carolingien, et, pour l’essentiel, grâce aux monastères. On peut dire, très sommairement, que l’école latine du Xème et XIème siécle se porte mal, et qu’elle renaît littéralement au XIIème siècle. Il y a donc une question de transmission.
Ce qui est vrai pour l’école latine l’est d’abord pour le latin lui-même.
Ne perdons pas de vue le caractère profondément étranger du latin au christianisme des origines. Cette étrangeté est première et totale. Le Dieu-fait-homme des chrétiens ne s’exprime pas en latin ; les premiers chrétiens ne parlent pas cette langue ; les textes qu’ils lisent ou écrivent ne lui appartiennent pas.
Dans ces conditions, le latin des chrétiens, son rôle comme quasi langue sacrée, la romanisation progressive mais générale du christianisme occidental, et l’effort ultérieur pour conserver ce dispositif alors même que le latin disparaissait comme langue de communication « conservent une part de leur mystère ». (De Ghellinck cité par Chenu…).
le corpus culturel du monde lettré chrétien
L’essentiel du corpus culturel du futur monde lettré chrétien s’est constitué, de manière frappante, pendant une période assez courte, de 300 à 600 : textes sacrés latinisés ; grands commentaires et œuvres théologiques des écrivains sacrés ; textes philosophiques, scientifiques, et poétiques de référence. Hilaire, Ambroise, Jérôme, Augustin, Prudence, Martianus Capella, Boèce, Cassiodore, Grégoire le Grand, Isidore.
Les œuvres phare, la « Vulgate », les « Confessions » ou la « Cité de Dieu », la « Consolation de la philosophie » sont encore plus rapprochées : à peine cinquante ans séparent la mort d’Augustin de la naissance de Boèce.
Cet ensemble demeurera inchangé jusqu’au XIIème ou XIIIème siècle. Il forme le fond de la bibliothèque idéale et réelle d’Hugues de Saint Victor. Pendant cinq ou six cents ans, on usera ces textes jusqu’à la corde.
Le corpus est triple : textes sacrés latinisés/ textes de théologie ou philosophie chrétienne/ textes de savoir des arts libéraux. Jérôme, Augustin, Boèce, qui représente la condensation du savoir « scientifique », ce pourquoi on parle d’aetas boetiana, d’âge de Boèce.
L’héritage comprend non seulement les textes mais aussi leur accompagnement grammatologique : ordres des savoirs, méthodes d’enseignement, d’interprétation des textes, etc. Hugo est donc dans une double continuité : celle des textes transmis, et celle de la méthode qu’on doit leur appliquer.
Donc concentration extrême du corpus latin du christianisme, suivi d’une longue période de silence.
Quelle que soit la réévaluation culturelle de ce premier moyen âge, nous devons sentir que pour un intellectuel du XIIème siècle (et c’est là une différence notable avec ceux qui viendront plus tard, Thomas d’Aquin, Albert le Grand), la référence est ancienne et concentrée : la bibliothèque des âges récents est presque vide.
Je perçois ce silence de la bibliothèque comme une hantise de Hugo.
Ainsi, comparant l’Antiquité et son époque :
« Il y eut, en ces temps là, tellement de savants, à ce point qu’ils écrivirent plus de livres que nous n’en pouvons lire. » « Nous avons beaucoup d’étudiants et peu de savants. »
L’art de lire a à voir aussi avec ce constat sur l’état de la « civilisation ».
l’évaluation des œuvres et des savoirs
Dans son projet, Hugo n’hérite pas seulement des œuvres chrétiennes, mais aussi de l’évaluation de la culture antique par le christianisme. La référence ici se redouble.
Reprendre l’école latine, c’est reprendre la grande affaire du christianisme avec la culture antique et hellénistique, c’est à dire son refoulement, et les multiples versions de ce refoulement dont l’étagement fixe la position intellectuelle des uns et des autres.
Cette généalogie d’une attitude globalement critique doit être différenciée selon qu’elle s’exerce au détriment des œuvres ou de leurs auteurs, ou plus généralement à l’égard des savoirs ou des sciences considérées comme caractéristiques de la culture grecque et latine.
Tertullien exprime un antagonisme radical à l’égard de la philosophie païenne. L’Académie est l’ennemi de l’Eglise. D’ailleurs les philosophes sont les pères spirituels des hérétiques auquel Platon fournit ses « épices ».
Il est difficile de trouver un point de vue exactement contraire même si, chez les apologistes, Clément ou Justin expriment ou passent pour exprimer un point de vue plus modéré. La position la plus courante est celle d’un dépassement nécessaire de la sagesse antique par la sagesse chrétienne, qui nécessite d’écarter les œuvres païennes.
Finalement, le bagage classique de l’école latine chrétienne est plutôt maigre. Peu de choses : Sénèque et Virgile, plus ou moins considérés comme chrétiens, une partie du Timée de Platon, et la logica vetus d’Aristote.
Concernant les sciences et les arts, le point de vue de Grégoire le Grand mérite d’être rappelé. Dans son introduction aux Moralia in Job, il déclare s’opposer aux règles de la rhétorique et du style classique, refuse de « forcer les termes de l’oracle céleste à se ranger sous les règles de Donat », et s’oppose à ce qu’un évêque enseigne la grammaire.
Il est vrai que le point de vue du très influent Grégoire, dans sa radicalité, s’apparente à une sorte de déclaration pour une esthétique chrétienne. C’est là une pente que d’autres emprunteront. D’après Garin (ma source ici), « Ce fut cet esprit- et non les invasions et les incendies- qui dispersa et détruisit en peu de temps une si grande partie de l’héritage antique ». A côté du radicalisme anti-païen du futur pape Grégoire, Cassiodore fait figure d’homme qui compose. Mais nous ne savons pas lequel devrait être considéré comme le plus « représentatif ».
Pour la doctrine officielle, il semble bien que l’on ait plutôt retenu le point de vue d’Augustin.
Celui-ci, dans le Livre II du De doctrina christiana, définit les grands traits du programme d’intégration de la science et de la sagesse païenne. Non seulement la grammaire, les mathématiques, mais aussi l’histoire, la dialectique, l’éloquence même, pouvaient être utiles à la diffusion du christianisme. Mais ces savoirs étaient autant de propriétés illégitimes de la culture païenne qui devaient non seulement lui être reprises, mais aussi être retournées contre elle. Augustin comparait cette révolution culturelle, ce retournement à la fuite du peuple d’Israël, emportant dans sa sécession les richesses d’Egypte.
Le savoir retourné contre les œuvres, tel était le programme – ou l’illusion- d’Augustin, l’ancien magister qui ne pouvait se représenter la fin de l’école latine, ni celle de Rome.
un art de lire unique
Tel est donc, sommairement résumé, l’ « héritage » d’Hugues de Saint Victor, ce en quoi la référence fait question.
Ce n’est pas la totalité de son cahier des charges. L’art de lire est une composante de l’école claustrale de Saint Victor, elle même une pièce de la réforme grégorienne, cette « grande révolution venue d’en haut ».
Hugues est théologien, philosophe, et aussi réformateur, et ses réformes sont justifiées théologiquement. La question de la référence est aussi politique, et peut se formuler ainsi :
comment ré-instituer l’école latine autour d’une méthode de lecture qui tienne compte
a) de la bibliothèque vide
b) des évaluations contradictoires de la culture antique.
A la question : que faut il lire ?, sa réponse, la réponse du Didascalicon est forte : " Apprenez tout ". Nous verrons qu’il y a des limites. Mais pour l’essentiel, le débat sur le savoir est tranché dans le sens d’une acceptation générale de la référence antique.
Il y a bien deux références, deux parties dans le Didascalicon : les arts, c’est à dire le savoir antique, les écritures divines, c’est à dire la culture chrétienne.
Des raisons utilitaires commandent cette adoption : la nécessité de former les futurs chanceliers, notaires, juristes, chroniqueurs, au service de l’église et des princes. Mais la reconnaissance des arts libéraux est plus profonde : l’art de lire est véritablement unique, unifié et la science antique en constitue la première partie.
« Tandis que dans les autres livres- je veux dire les livres des païens- trois réalités sont en cause, à savoir la chose, la signification et les mots, et que les mots n’expriment la chose que moyennant la signification, il en va bien différemment pour ce qui est de la parole divine.
Là en effet, ce ne sont pas seulement les mots qui expriment la signification et les choses, mais les choses elles-mêmes qui signifient d’autres choses. Il en ressort à l’évidence que la connaissance des arts libéraux est fort utile à la connaissance des divines Ecritures : la grammaire en effet traite de l’expression des mots, la dialectique de leur signification, et la rhétorique à la fois de l’une et de l’autre. Le quadrivium pour sa part donne la connaissance des choses. De la sorte le trivium et le quadrivium servent à la parole divine… »
(cité par Sicard p 109 ; extrait de Sententie de divinitate, II, 169-228).
Ainsi Hugues ne reprend pas l’idée de « retourner les armes » mais bien plutôt celle de « servir à l’étude chrétienne ».
On sait aussi que la lecture des écritures saintes, la lectio divina suit trois sens : selon l’histoire (à la lettre et dans l’ordre événementiel de la narration) ; selon l’allégorie (le symbolisme théologique) et selon la tropologie (le sens moral).
Or Hugues s’oppose aux sauts trop rapides dans l’allégorie.
« S’il fallait, comme ils le prétendent, sauter aussitôt de la lettre à ce qu’il faut comprendre spirituellement, ce serait en vain que l’Esprit saint aurait assumé, comme intermédiaire dans la parole sacrée, les figures et similitudes des choses par lesquelles l’âme est instruite des réalités spirituelles. L’Apôtre en a témoigné : Ce qui est charnel est premier, vient ensuite ce qui est spirituel.»
(cité par Sicard p77 ; De Scripturis et scriptoribus sacris, 13A-15B)
Celui qui n’a pas étudié les arts libéraux, la grammaire, ne peut correctement étudier le texte à la lettre, comprendre le sens du point de vue de l’historia, et risque une interprétation allégorique sans fondement.
Nous sommes donc devant un montage : technologie (art de lire, méthode) et textes. Remarquons que c’est la méthode, la technique qui assure l’unité des deux références, païenne et chrétienne.
Rédigé à 18:16 dans Publications | Lien permanent | Commentaires (2) | TrackBack
lecture et memoire .2. ordo
lecture et mémoire : à partir de Hugues de Saint Victor
(Deuxième partie)
18 Avril 2005
ordo
J’examine maintenant la question de l’ordre –ordo- c’est à dire l’organisation des connaissances.
Les différentes sciences sont d’abord définies selon leur nature ; puis les savoirs et leurs objets sont disposés parmi les sciences. Hugues procède par subdivision, chaque science se découpant en espèces successives jusqu’au savoir élémentaire. L’ordre comporte aussi une manière de se repérer et de progresser logiquement dans ces connaissances, et, de ce point de vue, forme une cartographie des savoirs.
classement du savoir
Hugues visait donc à asseoir sur cette organisation le programme d’études de l’Ecole de Saint Victor.
Bientôt cette question deviendra centrale pour l’institution des universités européennes, c’est à dire pour le fonctionnement de l’église - puisque l’université émane de l’église- puis pour les rapports entre l’église et les différents états. On sait que, dans ce cadre, Paris deviendra, un siècle plus tard, la grande université de théologie de l’occident chrétien, c’est à dire, en raison de l’ordo, une grande université pour les arts libéraux, pour les sciences.
Les notions centrales, la discussion sur l’ordo font évidemment partie de l’héritage. Jusqu’à un certain point, ils s’intègrent à la référence. Mais l’Université est une pure création historique de l’Occident chrétien. Ni Athènes, ni Rome, ni les byzantins, ni les arabes ne se sont formé l’idée d’université. En Occident, à propos de l’université et à cause d’elle, l’ordo devient une affaire publique.
Les grands principes de l’ordo selon Hugues sont les suivants :
- séparation entre les arts et les écritures saintes, subordination des premiers aux seconds et rôle propédeutique de leur apprentissage.
- définition de la philosophie comme ce qui englobe et ce à quoi tendent tous les arts, toutes les sciences ; la philosophie donc est subordonnée et prépare aux écritures sacrées ; la philosophie au sens moderne, tel qu’Abélard commençait à l’utiliser, est réprouvée.
- Hugues reprend deux anciennes distinctions. La distinction entre arts libéraux (la science), et arts mécaniques (la technique), et, au sein des arts libéraux, la distinction entre le trivium (sciences du langage), et le quadrivium (ce qui est lié aux mathématiques).
- Il produit, pour la philosophie, un ordre en forme d’emboîtages successifs.
La philosophie comprend la théorique, la pratique, la mécanique, et la logique.
La théorique comprend la théologie (non chrétienne, qui porte sur l’intellectible), la mathématique, c’est à dire le quadrivium (arithmétique, musique, géométrie, astronomie), et la physique.
La pratique est individuelle, privée ou publique. Elle correspond à ce que nous appellerions éthique, droit, science politique.
La mécanique comprend l’art du textile, l’armement, la navigation, l’agriculture, la chasse, la médecine, le théâtre.
La logique se divise en grammaire et art du raisonnement, ce dernier en démonstrative, preuve et sophistique, la preuve en dialectique et rhétorique (autre disposition de la traditionnelle division des arts libéraux en grammaire, dialectique et rhétorique).
Nous avons déjà vu comment la « philosophie », dans la définition de Hugo préparait la théologie chrétienne. Je me borne ici à quelques remarques sur l’ordre intérieur des connaissances.
place du droit
Première remarque : le droit et sa place. La réforme grégorienne s’accompagne d’un renouveau du droit canonique dont l’âge d’or, selon ses historiens, débute à la même époque (Yves de Chartres, et Gratien). Le droit romain se développe à Bologne, dans le studium créé par Irnerius, à peu près concomitamment à la mise en place de l’Ecole de Saint Victor.
Dans le Didascalicon, le droit, jus, n’est pas cité en tant que tel. D’ailleurs il n’est pas un art.
Selon notre propre perspective, il devrait se situer dans la philosophie pratique, notamment publique, à côté de l’éthique, de l’économie et de la politique, mais ce n’est pas le cas. En revanche, la deuxième partie du Didascalicon, consacrée aux écritures saintes y agrège les « Décrétales, que nous appelons Canons, c’est à dire « régulières » ». Ces textes font partie du troisième et dernier groupe du Nouveau Testament, après les Evangiles et les Apôtres. Dans ce groupe des Docteurs, ils précèdent les Pères saints et autres savants (Augustin, Jérôme…).
Mais le corps du texte ne correspond pas à l’ordre annoncé, puisque Hugo traite de manière assez détaillée des canons des conciles les plus importants, mais ne dit mot des décrétales au sens strict, c’est à dire des règles édictées par les papes.
Plus généralement, la place importante donnée par Hugo aux décrétales, au début de la deuxième partie, contraste avec l’absence de référence à tout texte juridique contemporain.
Dans l’ordre de Hugo, le droit a une place équivoque, qui préfigure d’une certaine manière les relations de concurrence entre les Universités de théologie et de droit, leurs méthodes respectives, leurs relations aux pouvoirs. Je la comprends ainsi : quelques années après les « Dictatus papae » de Grégoire VII, ce n’est évidemment pas sur la légalité ni la légitimité des textes de droit que Hugo hésite, mais sur leur autorité scientifique et littéraire, et, du même pas, sur leur conformité à l’art de lire.
place des techniques
Deuxième remarque : sur la place des arts mécaniques, de la technique.
« il y a beaucoup de sortes de plats préparés : saucisse de Lucanie, hachis, pâté, tourte de Galatie, et tous les autres mets que le prince des cuisiniers aurait pu imaginer. »
(Didascalicon, p119).
J’ai été étonné par la présence de ces tourtes et saucisses dans le descriptif des sciences et je me suis demandé s’il s’agissait de recettes antiques ou médiévales.
Le passage du Didascalicon sur la mécanique est fréquemment cité et la citation ouvre sur deux types de commentaires.
Pour les uns, l’étymologie fautive et répétée des sciences « mécaniques » (« c’est à dire adultérines parce qu’elles traitent de l’œuvre de l’artisan, qui emprunte sa forme à la nature ») illustre bien le mépris médiéval pour la technique.
Pour les autres – par exemple, Bertrand Gilles, dans « Les ingénieurs de la renaissance » - la place de la mécanique dans l’ordo, comme troisième partie de la philosophie, signifierait une réévaluation de la technique dès cette période du moyen âge.
Ce qui reste assez mal expliqué, c’est la portée de cette référence à la technique.
Faut-il comprendre que Hugo préconise d’utiliser des manuels de cuisine pour faire, choisir, manger d’excellentes tourtes et saucisses, ou des traités de médecine pour se soigner ?
Il semble plutôt que les textes de ce type, rares d’ailleurs et tous anciens, sont évoqués, au titre de l’unité du savoir, comme les produits de disciplines auxiliaires. Par exemple leur intégration à l’ordo permettra, grâce aux textes de médecine, de mieux comprendre les traités sur l’âme et donc la vérité des sources chrétiennes. C’est en ce sens que l’on peut qualifier le savoir même technique du moyen-âge de « livresque ».
ordre de la découpe
J’examine maintenant un autre aspect de l’ordo, son aspect extérieur, ce que Michel Foucault nous a appris à reconnaître comme « le jeu négatif de la découpe » (Ordre du discours), c’est à dire non seulement les censures, les exclusions, mais aussi les ignorances ou les écarts.
Fondamentalement, est absent de l’Ordo du Didascalicon ce qui n’est pas latin. La découpe est d’abord d’ordre linguistique.
Le périmètre du latin, langue d’église (plus que langue sacrée), langue de savoir, et langue de gouvernement, dessine exactement la frontière du monde lettré occidental. Cette découpe linguistique extériorise, exclut et ignore les autres langues, soit inconnues, soit méconnues. Inconnues, les langues savantes des autres mondes lettrés : grec, hébreu ou arabe. Méconnues, les langues vulgaires.
Sur les langues lettrées inconnues, on connaît la suite : le choc de la découverte des textes grecs (Aristote), via les arabes, les juifs, et les byzantins.
Quand à l’autre découpe, qui exclut la littérature en langue vulgaire, méconnue, elle croise une autre mise à l’écart : celle de la poésie.
« Il existe deux genres d’écrits. Le premier comprend ce qu’on appelle les arts, au sens propre, le second, les annexes des arts….Quelquefois, cependant, des éléments détachés des arts y touchent de façon dispersée et confuse.. C’est le cas de toutes les œuvres poétiques…également les fables et les histoires, et même les écrits de ceux qu’aujourd’hui nous appelons couramment philosophes… ».
Et, plus loin :
« Les arts sans leurs annexes sont capables de rendre parfait l’étudiant, mais les annexes sans les arts n’apportent aucune perfection. »
(Didascalicon, p 135).
Dans le débat, déjà évoqué, des grands auteurs de la chrétienté sur le recours aux textes antiques, la poésie occupe une place limite, comme le point de dangerosité maximale de la culture païenne.
Par exemple, progressivement, Augustin avait adopté une position hostile à la poésie latine. Il en était même venu à récuser Virgile, disant aux païens : « votre Virgile, nos écritures ».
Comme Mary Carruthers l’a montré dans « Machina mirabilia », l’oubli de l’éducation antique a pu devenir un objectif aux premiers siècles du christianisme. L’exemple donné par Jean Cassien (14ème Conférence) illustre bien à quel point cette politique d’oubli pouvait se concentrer sur la poésie païenne.
Voici comment un novice représente au moine Nesteros son esprit « infecté des œuvres des poètes » :
« …les histoires grossières dont je fus imbu dès ma petite enfance et mes premiers débuts dans les études, m’occupent même à l’heure de la prière. Je psalmodie, ou j’implore le pardon de mes péchés ; et voici que le souvenir effronté des poèmes jadis appris me traverse l’esprit, l’image des héros et de leurs combats semble flotter devant mes yeux. »
Pour être beaucoup plus modéré, le point de vue d’Hugues de Saint Victor sur les « annexes des arts » ne s’écarte pas de cette tradition chrétienne anti-traditionnelle, et de cette méfiance à l’égard de la poésie.
Or le XIIème siècle est un moment de fort développement des littératures, de la poésie en langue vulgaire ; c’est même le moment de naissance de ces poésies, et parfois des littératures nationales. C’est le cas notamment de la grande poésie des troubadours provençaux, ou, en langue française, de Chrétien de Troyes.
lecteurs
re
Rédigé à 18:05 dans Publications | Lien permanent | Commentaires (0) | TrackBack
lecture et memoire.3. la memoire
lecture et mémoire : à partir de Hugues de Saint Victor
Enfin une terre étrangère est proposée, car elle aussi exerce l’homme. »
Ici, conformément à la technique de l’épilogue ou récapitulation, nous avonsle texte comporte un titre bref, et débute par un résumé, à la manière de nos abstracts.
Le résumé indique un emplacement : « enfin » ; le passage se situe à la fin, il clôt la première partie du Didascalicon consacré aux arts. « Enfin » ne signifie pas, banalement que la première partie s’achève ; c’est un indice de mémoire : la bonne place, pour le thème de l’exil, est ici aux limites de la première et deuxième partie.
Hugues est « exilé » aux portes de la cité – c’est ainsi que le représente certaines miniatures- et son enseignement fait passage entre les arts et les écritures sacrées. Situation habituelle des étudiants, l’exil est ici proposé comme règle de vie, et spécifiquement comme exercice, au même titre que la pauvreté. Il faut donc que Hugo démontre certaines qualités de l’exil propres à en faire, en général, un exercice pour l’homme.
(2) « Le monde entier est un exil pour ceux qui philosophent. »
Citation de Sénèque dans les Epistulae morales LXVIII et CII.
Sur les six fragments ici individualisés, le texte comporte quatre citations (2, 3, 6).
La phrase de Sénèque, non cité mais repérable pour un lettré du Moyen-âge, est un quasi lieu commun. Sénèque était considéré comme presque chrétien. Le sage est exilé : c’est le point de départ du texte.
(3) « Parce que, comme dit le poète :
Et ne leur permet pas de l’oublier », »
(4) « C’est un grand principe de vertu pour un esprit exercé d’apprendre peu à peu d’abord à changer ces choses visibles et transitoires afin de pouvoir ensuite les abandonner. »
Il y a donc une sorte d’antilogie entre les deux fragments, la citation d’Ovide, et ce passage de nette inspiration augustinienne. Elle ne se lève qu’à condition de lire ainsi : Ovide, étant ce qu’il est, n’a pas manqué d’illustrer une morale séduisante mais critiquable et c’est à tort qu’il occupe littérairement la position psychologique de l’exil.
(5) « Il est encore bien délicat celui à qui la patrie est douce ; il est déjà fort celui pour qui toute terre est une patrie ; mais il est parfait celui à qui le monde tout entier est un exil. Le premier a attaché son amour au monde ; le second l’a disséminé ; le troisième l’a éteint. »
Ce que développe ce cinquième fragment qui met en place la théorie chrétienne de l’exil, du détachement du monde.
Hugues tenait à cette conception pérégrine du christianisme.
Dans le De Archa Noë, s’appuyant sur le Livre de Job « J’ai vu le sot affermi par de profondes racines et j’ai dans l’instant maudit leur éclat », il utilise un classement ternaire, très proche de celui du Didascalicon pour qualifier les différentes attitudes à l’égard de la foi (infidèles, faibles, fidèles) d’après leur attachement aux racines.
Ainsi Ovide n’a-t-il été précisément évoqué que pour céder la place à Augustin.
Et, puisque la position du parfait est identique à celle du philosophe selon Sénèque, la démonstration de Hugo semble pouvoir être reconstituée ainsi : avec l’aide d’Augustin (4,5), confirmer Sénèque (2), malgré Ovide (3) qu’on ne peut éviter.
(6) « Pour moi, j’ai quitté ma patrie dès l’enfance, et je sais avec quelle tristesse parfois l’âme abandonne l’étroit domaine d’une pauvre chaumière ; avec quelle liberté elle méprise ensuite les demeures de marbre et les toits lambrissés. »
Rédigé à 17:49 dans Publications | Lien permanent | Commentaires (0) | TrackBack
hugues de saint victor
HUGUES DE SAINT VICTOR (1090/1100-1141)
Cette note accompagne le texte en trois parties: "lecture et mémoire: à partir de Hugues de Saint Victor".
Hugues de Saint Victor est fréquemment présenté comme une des figures caractéristiques de la « Renaissance du XIIème siècle », en tout cas de cette renaissance « indigène » (Alain de Libera), avant l’averroïsme et le retour de la philosophie, marquée par l'essor des arts du langage (grammaire, dialectique) et de la logique, et, sur le plan institutionnel, le développement des écoles dans les villes.
L’œuvre de Hugues de Saint Victor couvre quatre grands domaines : les livres de méthode ou de pédagogie ; l’exégèse ; la théologie ; la spiritualité ou mystique.
LE MAITRE DE SAINT VICTOR
Hugues est le représentant le plus illustre de l’Abbaye de Saint Victor, fondée à Paris par Guillaume de Champeaux, maître puis rival d’Abélard.
Dans la lignée de la réforme grégorienne, l’Abbaye de Saint Victor créait son école claustrale au moment où se multipliaient, à Paris, les centres scolaires: l'école-cathédrale, innovation du XIIème siècle, l’école d’Abélard, et celle du Petit-Pont.
Hugues y devint rapidement fameux pour ses cours et ses livres. On compte parmi ses élèves Richard de Saint Victor, évoqué par Dante dans la Divine Comédie.
Son œuvre (33 titres) est bien connue, en particulier grâce à un « indiculum », attribué à Gilduin, bibliothécaire de Saint Victor, et deuxième abbé, qui avait fait recopier tous ses textes.
Hugues a produit de nombreuses exégèses de la Bible, des textes liturgiques et des Pères. Sa théorie générale de l’exégèse est contenue dans le DE SCRIPTORIS ET SCRIPTORIBUS SACRIS.
Son grand texte dogmatique est le DE SACRAMENTIS CHRISTIANAE FIDEI, à la fois synthèse théologique et « récapitulation de l’œuvre hugonien » (Dominique Poiriel).
Parmi les textes de spiritualité : le DE VANITATE MUNDI, et le DE ARCHA NOE.
Une partie de la correspondance de Hugues a été conservée, notamment avec Bernard de Clairvaux.
LE DIDASCALICON - ART DE LIRE
Le Didascalicon est le livre le plus connu de Hugues de Saint Victor, et son principal ouvrage pédagogique. Il est parfois présenté comme le guide de la Renaissance du XII ème siècle.
Le titre original est « Didascalicon de studio legendi ».
« Didascalicon » est un mot grec qui provient du verbe signifiant enseigner.
On utilise encore en français, le mot « didascalie » (Littré : « chez les Grecs, instruction donnée par le poëte aux acteurs ; et aussi travail critique sur le nombre et l’époque des pièces jouées »). Certains auteurs contemporains utilisent le mot « didascales » pour désigner les maîtres de lecture de l’Antiquité.
Le titre est un peu redondant. Il signifie, dans une traduction peu élégante : « Instruction sur la formation à la lecture ». Michel Lemoine, son traducteur français, donne le titre suivant : « Didascalicon. L’Art de lire ».
Dans la préface, Hugues présente ainsi son ouvrage :
« La lecture occupe la première place dans les études. Le présent livre en traite, en donnant des règles pour lire…La première partie comporte l’instruction du lecteur ès arts, la seconde, celle du lecteur en science religieuse…Voici la méthode suivie dans cette instruction : d’abord montrer ce qu’on doit lire, puis dans quel ordre et comment on doit lire ».
Chaque partie comporte trois livres.
Le livre 1 définit la nature et l’origine des différents arts et donne le principe de leur classement.
Le livre 2 détaille ce classement et donne le contenu de chaque art. C’est la partie la plus encyclopédique du Didascalicon.
Le livre 3 énumère les auteurs des arts, les différents types d’écrits, l’ordre de la lecture (lettre, sens, pensée ou signification), la manière de lire (par la division), la relation entre lecture et méditation, le rôle de la mémoire, les qualités et règles de vie du lecteur. C’est la partie méthodologique, l’art au sens strict.
Le livre 4 présente le corpus des écritures sacrées.
Le livre 5 rappelle le principe du la triple mode de compréhension de l’Ecriture sainte (historique, allégorique, tropologique), et donne le statut de la lecture des textes sacrés.
Le livre 6 détaille les trois modes de compréhension, et présente l’ordre et la technique de lecture des textes sacrés.
Le Didascalicon est à la fois un manifeste pour une vie d’étude reposant sur la lecture qu’elle soit profane ou sacrée, une proposition d’organisation du savoir, et une méthode de lecture.
Les commentateurs insistent souvent sur la place accordée aux arts mécaniques. Ici, Hugues, s’inspirant de Boèce, réintroduit le savoir livresque technique au sein de la philosophie.
Ce choix et un intérêt général pour le classement permettent parfois de définir le Didascalicon comme un moment important de l’encyclopédisme médiéval.
Mais c’est surtout comme art de lire, comme méthode adaptée à un corpus et un projet intellectuel que le Didascalicon reste important.
UNE ANALYSE DU DIDASCALICON PAR IVAN ILLITCH
Une interprétation du Didascalicon a été proposé récemment par Ivan Illich : « Du lisible au visible. Sur l’Art de lire de Hugues de Saint Victor ».
Ce livre se présente comme une recherche sur l’histoire de « l’épistémologie alphabétique », sur « l’interaction symbolique entre « technologie et culture », ou, plus précisément, entre la tradition et la finalité, les matériaux, les outils et les normes de leur utilisation ».
Sur le plan le plus général, le Didascalicon ouvre l’ère de la « lecture livresque » : « la page se transforma soudain de partition pour pieux marmotteurs en un texte optiquement organisé pour des penseurs logiques ». Un nouveau genre de lecture classique devient la référence de l’activité intellectuelle. Ce type de lecture est un phénomène daté, un mode particulier d’interaction avec la chose écrite ce que démontre la situation actuelle, où la lecture comme métaphore est ruinée, et où coexistent divers styles de lecture. Il s’agit d’expliciter ce modèle de lecture livresque.
Historiquement, le XII ème siècle est un siècle de transition pour la lecture. Hugues formule un devoir universel d’étudier en s’appuyant sur la lecture, devoir qui s’impose non seulement aux moines, et aux élèves de l’Abbaye, mais à l’ensemble des citadins. Plus précisément, il tourne la page de la lecture monastique (les pieux marmotteurs), et prépare la lecture scolastique, qui s’appuie sur la visibilité de la page.
Sur le plan technologique, la méthode de Hugues consiste à réactiver le vieil art de mémoire de la rhétorique et à l’enseigner, comme technique de lecture à des élèves formés à la lecture orale. Elle s’appuie d’autre part sur la manière de lire silencieuse, rendue possible par la technique de placement des espaces entre les mots.
Après Hugo, la génération de Pierre Lombard inventera la lecture scolastique, en développant avec les outils de la mise en page (index, chapitres, numérotation des chapitres et versets, table des matières, résumés) une nouvelle visibilité du texte.
Avant Hugues, le livre est « l’enregistrement de la parole ou de la dictée de l’auteur ». Après lui, il devient un « répertoire de la pensée de l’auteur ».
AUTRES ECRITS PEDAGOGIQUES
Dans le DE GRAMMATICA, Hugues apporte une contribution consistante à l’évolution de la ponctuation.
Il donne l’inventaire des différents signes utilisés depuis Alexandrie : signes de ponctuation et signes diacritiques (accents). Dans la lignée d’Isidore de Séville, il intègre les « notae », signes d’annotation critique dont certains deviendront des signes de ponctuation courante.
Cette préoccupation technique situe bien Hugues de Saint Victor dans le mouvement de développement de la lecture silencieuse, comme Pierre Saenger le souligne (« C’étaient là précisément les procédures largement visuelles que les nouvelles techniques de restructuration du texte écrit facilitaient »).
Le DE TRIBUS MAXIMIS CIRCUMSTANTIIS GESTORUM est le prologue du CHRONICON. C’est un texte consacré à la pratique de la lecture comme exercice de la mémoire. Il a été analysé par Mary Carruthers dans « Le livre de mémoire».
Le système des lieux habituel des arts de mémoire est ici strictement numérique, et les images sont de courts morceaux de texte. Ces images du texte écrit s’impriment dans la mémoire comme elles apparaissent dans le livre d’où elles viennent, avec leur emplacement dans la page, la taille et la couleur des caractères.
Le découpage du texte en brèves unités logiques et physiques, et son organisation selon un classement numérique sont conformes à la didascalie de l’auteur. « La façon de lire consiste à diviser ».
BIBLIOGRAPHIE
Une liste des œuvres de Hugues est donnée par Dominique POIRIEL dans « Hugues de Saint Victor », 168 pages, Cerf, 1998.
Une liste des textes, de leur édition, avec leur place dans la Patrologia latina de Migne et de nombreuses autres informations, est présentée sur le site du Hugo von Sankt Viktor Institut
L’Institut a entrepris l’édition scientifique des œuvres complètes de Hugues.
En relation avec ce projet, une édition bilingue (latin et français), dirigée par Patrice Sicard, est en cours dans la collection « Sous la règle de Saint Augustin », Brépols.
Le Tome 1 (Feiss, Sicard, Poiriel, Rochais) comporte De Institutione Novitiorum, De virtute Orandi, De laude caritatis, De arrha animae.
Le Tome 2 : Epistome Dindi in philosophiam, Practica geometricae, De grammatica.
Hugues de Saint Victor, « L’Art de lire. Didascalicon », traduction et préface de Michel Lemoine, 248 p, Cerf, 1991.
Roger Baron avait édité et traduit « six opuscules spirituels », dont De meditatione, au Cerf, 1969.
Le « De tribus maximis circumstantiis gestorum » a été édité par W.M Green, dans Speculum 18 (1943). Une traduction est proposée en annexe du livre de Mary Carruthers.
« Hugues de Saint Victor et son école », de Patrice Sicard est une anthologie de textes traduits et commentés. C’est une excellente introduction à l’œuvre de Hugo. (Brepols, 1991)
Ivan Illitch, « Du lisible au visible. Sur l’art de lire de Saint Victor » (Cerf)
Mary Carruthers « Le livre de mémoire » (Macula). Voir aussi : « Machina mirabilia » (Gallimard).
G.A.Zinn, « Hugh of Saint Victor and the art of the memory », in Viator 5, 1974.
Pierre Saenger, « Lire aux derniers siècles du Moyen Age », in Cavallo et Chartier, « Histoire de la lecture dans le monde occidental », p 155-156.
Nina Catach, la ponctuation, PUF, 1996.
Pour une situation générale :
Alain de Libera, La philosophie médiévale, p 317-319, PUF.
Jean Jolivet, « La philosophie médiévale en Occident », Gallimard Folio.
h
Rédigé à 16:53 dans Publications | Lien permanent | Commentaires (0) | TrackBack
04/01/2005
logique de l'appropriation
28/03/05
Ce texte doit beaucoup à mon expérience à la Mission interministérielle pour l’accès public à l’internet (MAPI), et aux discussions que j’ai eues avec les animateurs des espaces publics numériques.
J’en ai présenté une première version, lors de l’université d’été de la FING à Aix, en mai 2004. A cette occasion, la FING avait mis en ligne le memo de cette intervention qui n’est pas fameux.
Depuis, j’ai à nouveau discuté de ce sujet, notamment avec Michel Briand et Jean-Luc Raymond, lors d’un exposé de ce dernier à l’Université de Marne-la-vallée (DESS de Bernard Corbineau).
J’ai repris et modifié mes notes à l’occasion des deuxièmes Rencontres wallonnes sur l’internet citoyen et solidaire (mars 2005). Ce texte est encore une version provisoire.
autour du mot « appropriation »
Le mot « appropriation » a une fonction assez précise chez ceux qui l’emploient.
Ils veulent dire d’abord que le public, les citoyens, les « gens » doivent avoir un rôle actif à l’égard des technologies de l’information, qu’ils ne doivent pas être considérés comme une « cible » de leur diffusion, qu’enfin la démocratisation du numérique – pour autant qu’on souhaite agir en faveur d’une telle démocratisation- doit partir des gens pour aller vers le numérique, plutôt que l’inverse. Cette conception du sens du mouvement de démocratisation numérique est toute dans le « a » (ad) de appropriation.
Le reste du mot est aussi intéressant.
Que vient faire, ici, la « propriété » ? Je crois qu’il faut l’entendre au sens fort : chacun peut être propriétaire du numérique. Il n’est pas nécessaire de remplir quelque condition préalable, (ce que la théorie du XIXème siècle appelait l’ « âme propriétaire ») pour disposer du numérique. A l’inverse, aucun monopole n’est acceptable.
L’appropriation, c’est aussi la définition d’un « propre », une manière particulière de la personne ou du groupe de pratiquer les technologies, bref, une singularité numérique.
Ainsi, ceux qui utilisent ce mot d’appropriation ont une certaine manière de voir l’internet ; et à ce titre, ils relèvent d’un certain courant ; c’est mon cas.
Il me semble qu’une notion plus précise d’appropriation peut être construite sous la forme d’un triangle : accès, savoir, pratique.
l’accès
La question de l’accès peut se poser, en première analyse, dans les termes habituels de l’économie de marché : la rencontre entre une certaine demande solvable des consommateurs et l’offre, à un certain prix, des produits et services supportant ou utilisant massivement les technologies de l’information.
De fait, l’inégalité numérique est associé assez étroitement à la répartition des revenus. Par exemple, dans la plupart des pays développés, autour d’un tiers de la population n’a pas d’ordinateur à la maison.
L’inégalité numérique financière a été sous estimée, largement et longtemps, pendant toute la phase de décollage du numérique. Elle redevient critique dans les situations dites de « fossé numérique ».
Cette inégalité est d’abord une inégalité de base, celle qui tient au premier prix d’entrée (cherté des PC), ou à la disponibilité matérielle (haut débit). C’est aussi une inégalité économique plus large dans laquelle l’information tient une place importante.
J’ai, par ailleurs, des réserves sur l’idée d’ « économie de l’accès » de Jeremy Rifkin, mais ici elle s’applique bien. Ce qu’obtient le consommateur n’est pas simplement un produit (ordinateur ou logiciel) ou un service ; c’est l’accès général et compliqué à un ensemble de biens publics ou privés, dont l’économie est obscure et indécise ; c’est aussi une « plateforme d’expérience individuelle et sociale », dont il lui est difficile d’anticiper la valeur.
Le risque d’exclusion par l’information – venant renforcer l’inégalité financière directe- est donc bien réel.
Rien ne laisse prévoir des changements importants dans cette composante de l’appropriation. Les politiques publiques, selon leurs différentes finalités, devront continuer à accompagner l’accès par un moyen ou un autre.
Le thème de l’accès doit évidemment être aussi rapproché de celui de la propriété.
De ce point de vue, les conflits sur le régime de propriété (intellectuelle, ou industrielle) et le type de propriété (biens privés, biens publics, ou communs) nous rappellent ce qui se joue aussi derrière la formule de l’accès.
formation
La meilleure présentation du « fossé numérique » que je connaisse est une excellente émission du magazine TV « Strip-tease » (vers 2002).
Elle montrait un artisan laveur de carreaux qui venait d’acheter un PC pour se faire de la publicité sur le web. L’étonnement devant la complication du matériel, la difficulté à comprendre la documentation, et finalement l’incompréhension générale devant l’objet technique formaient la meilleure des démonstrations contre la soit-disant « banalisation technique », promise par les industriels de l’information depuis l’innovation du PC, et sans cesse reportée au lendemain.
Dans la plupart des pays où les technologies de l’information se sont développées rapidement, l’importance de l’initiation a été rapidement reconnue, que ce soit à l’école, au travail, dans la formation professionnelle, ou « tout au long de la vie ».
Une différence visible existe entre les pays de forte culture informatique qui ont identifié un marché de la formation et surtout élaboré les méthodes nécessaires (la « computer literacy ») et les autres, comme la France, qui s’en sont tenus longtemps à la thèse de la banalisation progressive de la technique, à la formation directe par la consommation, et plus généralement à une approche empirico - utilitariste.
Sur ce sujet, voir le texte sur « le rapport Thélot et l’enseignement des technologies de l’information ».
Je considère les faiblesses structurelles dans la constitution et la transmission d’un savoir technologique comme le facteur clé de l’exclusion, l’obstacle principal à l’appropriation.
usage et technique
Dans un souci compréhensible de se démarquer de l’emphase technique – ce que les américains appellent le « hype »- il est fréquent d’entendre des commentateurs préconiser une approche « usages » a priori pleine de bon sens.
Je crois pourtant qu’il est profondément erroné d’opposer « technique » et « usage » et qu’une telle opposition n’est pas à même de favoriser le « développement des usages ».
En premier lieu, de manière très générale, il n’est possible de considérer la technique comme un système de fonctionnalités disposées à différents usages, que dans des moments bien précis, isolables, de la conception, de la réalisation ou de l’utilisation.
Lorsqu’il s’agit d’appropriation, ou plus simplement de diffusion dans une société donnée, l’outil, la machine, la technique, la technologie ne sont pas « neutres ». Elles sont partie intégrante et constituante de la culture, au sens anthropologique, de cette société.
Voici par exemple comment Lévy-Strauss, dans « Anthropologie structurale », définit l’anthropologie culturelle : elle se consacre à l’étude « des techniques, et éventuellement aussi des institutions considérées comme des techniques au service de la vie sociale ».
Dans le « Dictionnaire de l’anthropologie » des PUF, l’auteur de l’article « technique », Pierre Lemonnier écrit :
« Malgré sa dimension matérielle, toute technique n’est jamais que de la pensée objectivée. Son adoption ou son rejet dépend donc de ces représentations particulières que sont les « connaissances » techniques ».
C’est ainsi que les NTIC peuvent être considérées comme culturelles à plus d’un titre : comme technologies, en général ; en fonction de leur contenu spécifiquement culturel ; parce qu’elles sont produites par les industries culturelles. De ce point de vue, elles emportent une certaine « logique des usages ».
les marchandises numériques sont elles « user-oriented » ?
Il faut cependant essayer de rendre compte de la spécificité des techniques numériques en tant que techniques culturelles. On pourrait d’ailleurs dire des produits et services caractéristiques de l’industrie de l’information qu’ils ne sont pas des « marchandises comme les autres ».
En particulier – ce n’est qu’un des points, mais c’est celui qui nous intéresse ici- ces marchandises sont profondément ambiguës dans leur statut de produits de consommation. A un niveau superficiel, la publicité semble toujours hésiter entre la présentation d’un « outil » ou celle d’un service bien défini.
Dans un cas, certaines marchandises numériques semblent vouloir se calquer sur le marketing des produits grand public en général. Ils ferment alors les fonctionnalités sur un type d’utilisation sensé correspondre à la plus grande attente, et s’efforcent de créer artificiellement une envie pour cet usage.
Dans l’autre cas, le produit semble n’être qu’une pièce de l’avancée générale de l’ « informatisation », ou de la « cybernétique ». Il suppose un investisseur individuel, très bien informé, prêt à payer pour « participer » au monde numérique.
On retrouve ici la tension entre les deux pôles de développement économique des industries de l’information : le pôle « investissement », premier dans le temps et dans le principe, car l’informatique n’est pas d’abord « consumer oriented » (origine militaire, budgets publics, informatisation des grandes entreprises et autres « grands comptes »), et le pôle « consommation », celui qu’on voit à la télévision (ordinateur et internet familial, mobile, jeux vidéo). Tension qui s’exprime aussi dans l’histoire industrielle du secteur : par exemple, la rivalité IBM/Apple à la fin des années 80, puis le ratage internet de Microsoft, avant le crash de la nouvelle économie en 2000.
On comprend alors les difficultés d’une logique d’usage.
S’agit-il, derrière le discours du marketing, de faire ressortir un bloc de fonctionnalités réalistes et de discuter quelles activités peuvent s’associer à telle technique ? Ou bien, faut il aller vers une « maîtrise des NTIC », ce que suggère la notion d’appropriation, en prenant une position générale par rapport à ce que signifient le numérique, le réseau, l’informatisation ?
Dans l’un et l’autre cas, toujours mêlés dans la réalité, la seule volonté de faire droit à l’usage et de tenir à distance la technique ne peut suffire ; elle tourne d’ailleurs facilement à la pétition de principe.
La notion de pratique pourrait ici s’avérer plus féconde, et pas seulement parce que la pratique consisterait en l’usage observé, certifié par les sociologues, ergonomes, etc, différent de l’usage déclaré du marketing, bref, en quelque sorte, l’ « usage réel ».
C’est une telle notion que j’ai essayé de mettre en œuvre dans mon texte sur la « lecture numérique ».
La notion de pratique associe l’activité (le quoi ? ce qu’on vise habituellement par « usage »), la technique (le comment ?, méthode, opérabilité, technologie comme technologie culturelle), et le sujet (le qui ?, singulier et collectif). Elle suppose une distance critique, non circonscrite à la seule technique, et même un point de vue stratégique. Elle s’appuie et trouve sa consistance dans une attitude d’expérimentation : dans la société de l’information, celui qui n’est pas sujet de l’expérience en est l’objet.
Au fond, la logique d’appropriation n’est rien d’autre que ce processus itératif qui permet d’enchaîner accès, formation et pratique.
Rédigé à 10:51 dans Publications | Lien permanent | Commentaires (0) | TrackBack
03/09/2005
où il est question de la bibliothèque virtuelle (et de Google)
où il est question de la bibliothèque virtuelle
(et de Google)
Ce texte a été présenté lors d’une conférence faite à la Maison des Sciences de l’Homme Paris Nord, le 15 février 2005, à l’invitation d’Henri Hudrisier. Il s’agit du memo de l’intervention, d’où sa forme elliptique. Je le reprendrai plus tard.
Le 22 janvier 2005, Jean Noël Jeanneney, président de la Bibliothèque nationale de France, publia dans le Monde une tribune libre dans laquelle il alertait l’opinion publique sur les conséquences de l’accord passé entre Google et cinq bibliothèques « anglo-saxonnes » (quatre américaines et une anglaise). J-N Jeanneney préconisait finalement une initiative européenne.
De là s’ensuivit un débat public dont une première caractéristique vaut d’être soulignée : le sentiment d’une question « nouvelle ».
Or ces questions sont tout sauf nouvelles et si elles peuvent apparaître comme telles, c’est simplement que leur histoire n’a pas été écrite. Pour plusieurs raisons, elle ne peut toujours pas l’être, mais cela n’empêche pas, au moins, de donner quelques repères.
Il y a trente ans, la période de développement triomphal de l’économie, dite des trente glorieuses, s’achevait avec la crise du pétrole. Le Président de la République française de l’époque, homme de formules, déclara que si « la France n’avait pas de pétrole, elle avait des idées ».
C’était une formule à la Hercule Poirot : la France avait des idées, parce que les français avaient des cellules grises. Ces cellules grises trouvaient à fonctionner, et ces idées à s’exprimer, dans des objets et projets nouveaux appelés « banques de données », « télématique », « information scientifique et technique » et présentés dans le rapport Nora Minc. La France aurait donc son serveur télématique national, ses banques de données, et même un terminal spécifique, le minitel.
Quelques quinze années plus tard, la nation célébrait le bi-centenaire de la révolution. Après un défilé du 14 Juillet très remarqué, un autre président annonça qu’il souhaitait réaliser une très grande bibliothèque d’un type entièrement nouveau. Sous l’impulsion de Jean Gattegno, un programme de numérisation des livres fut mis en place, connu aujourd’hui sous le nom de Gallica, en même temps qu’était réalisé un prototype de « poste de lecture assisté par ordinateur ».
On peut donc situer l’intervention de Jean Michel Jeanneney en soulignant, pour s’en féliciter, qu’il est, depuis Gattegno, le premier responsable important de la BNF à revendiquer le programme de numérisation, et qu’il le fait dans les termes qu’on employait, en 1974, à propos du lancement de la télématique française.
Je me permets de rappeler de quelle manière j’ai distingué, en 1996, la bibliothèque électronique et la bibliothèque virtuelle.
« La bibliothèque électronique, c’est l’informatisation de la bibliothèque classique et la numérisation des textes ; la bibliothèque virtuelle, c’est la bibliothèque électronique plus le réseau, plus l’appropriation individuelle. »
Le projet de Google correspond au croisement de ces deux modèles, et il peut donc être analysé à travers ces différentes composantes : la numérisation, le réseau, les instruments de lecture.
C’est, dans un domaine habituellement considéré comme l’exemple même du bien public: les bibliothèques, le premier exemple vraiment significatif du pouvoir des industries culturelles.
Google a conquis la possibilité d’être à l’initiative d’un tel projet lors de son entrée en bourse. C’est, en effet, le financement obtenu par l’ouverture du capital, lors de la levée initiale, qui permettra la numérisation.
Deux remarques.
Etant donné que lors de son entrée en Bourse, Google présente un modèle économique « média », c’est à dire que l’essentiel de ses revenus viennent de la publicité, les cinq bibliothèques doivent être considérées comme elles même financées par la publicité.
Deuxièmement, il est vraisemblable qu’à travers ce programme, Google cherche d’autres sources de revenus sur le présumé « grand » marché du multimédia d’enseignement ; mais, comme pour les projets de la défunte convergence numérique, rien n’est assuré.
Ce que je souligne ici, c’est qu’avant de s’inquiéter de certains effets éventuels de cet accord : hégémonie culturelle américaine (dénoncée par Jeanneney), parasitage des textes par la publicité et les libraires électroniques, mainmise sur les éditeurs intellectuels, il convient d’enregistrer la vraie nouveauté que constitue le financement des missions d’intérêt public par les industries culturelles (car Google est le type même de l’entreprise des nouvelles industries culturelles) et la dépendance ainsi créée à l’égard du financement publicitaire.
Je m’inspire sur ce point d’une remarque, je crois, récente, de Bernard Stiegler, opposant pratiques et usages.
Google n’est pas seulement « market oriented » ; de ce point de vue, d’ailleurs, il y a pire.
C’est une entreprise de marketing, au sens fort, non parce qu’elle vend de la publicité mais parce qu’elle fabrique le marché, c’est à dire la demande. Comme le courrier électronique, ou le portable, Google a créé son besoin, c’est à dire un autre besoin greffé sur le besoin initial, encore plus fort que ce premier, et passé progressivement de l’état de besoin à celui d’envie.
Il existe même une sorte d’addiction à Google, une boulimie ou « néophagie » de Google. En tant que moteur de recherche, c’est à dire comme objet technique, Google permet de s’orienter sur le web. Mais en tant que marketer, il crée un besoin de s’informer, de se rassurer, de tester le monde, très différent, du point de vue cognitif et psychologique, de ce qu’évoque la notion de « recherche ».
La question posée, ici, est celle des relations entre les textes numérisés et les instruments de lecture et d’écriture. D’une part, la lecture numérique ne saurait se réduire aux fonctionnalités de la recherche. D’autre part, ces fonctionnalités, dans le contexte de Google, sont surdéterminés par le jeu du marketer.
L’usage est conditionné unilatéralement par l’offre. Evidemment, il peut y avoir plusieurs offres, donc plusieurs usages ; c’est la définition même du marché. Mais ce qui nous intéresse dans l’économie de la culture numérique, c’est la possibilité d’expérimenter, de développer nos propres instruments et mondes, c’est à dire la pratique, comme appropriation critique.
Quelle pratique de la lecture numérique sera favorisée par l’accord ?
Le point qui m’a le plus étonné, dans le débat suivant l’intervention du Président de la BNF, c’est qu’on a glosé interminablement sur les chiffres, sans discuter le contenu des programmes de numérisation.
Cette question est celle de la référence. Il devrait être clair que le contenu des programmes de numérisation procède d’un choix. Ce choix ne peut dériver de purs critères de gestion : textes souvent demandés, ou qui doivent être préservés, valorisation des fonds, disponibilité juridique.
Avant tout, ce choix est intellectuel : il s’agit de définir le corpus que nous voulons transmettre au moyen de la lecture numérique. Cette opération est simultanément culturel et technologique, ce pourquoi elle est si mal comprise.
Je ne peux qu’évoquer cette question de la référence, pour en souligner à la fois la centralité dans la culture occidentale, et le mauvais état actuel.
Sur le premier sujet, voyez comment Pierre Legendre le problématise , dans « Ce que l’Occident ne veut pas savoir de l’Occident » (Mille et une nuits).
La généalogie de cette question, c’est d’abord la relation de la culture de l’occident chrétien avec ses « sources » juives et gréco-latines, et l’articulation, le « montage » de la méthode ou technique et de la référence. De ce point de vue, il est parfaitement vain de vouloir essayer d’échapper à ce montage, en ne traitant pas la correspondance entre fonds numérisés et lecture numérique.
Quand à l’état de cette question, il est mauvais. Quels que soient l’intérêt du public et les efforts des spécialistes, la référence est mal instituée. Pour se limiter à la France, pensons à la situation des caractères de l’Imprimerie nationale, à l’enseignement des langues anciennes, à la culture latine du Moyen Age qui se rapproche dangereusement du seuil de non –transmissibilité, ou aux classiques du cinéma.
L’accord entre Google et les bibliothèques américaines devrait être l’occasion de traiter cette question et non de la fuir. On peut prévoir en effet ce que produirait une approche strictement déterminée par le point de vue de l’industrie culturelle : une référence sans référence.
La bibliothèque virtuelle ne consiste pas seulement en un quoi ? (la référence) et un comment ? (la méthode de lecture numérique). Elle comprend aussi un qui ? Qui est le sujet de la bibliothèque virtuelle ? Qui est le lecteur numérique, si on nomme ainsi ce sujet ?
Je propose de remonter en quelque sorte de la lecture numérique vers le lecteur numérique. De ce point de vue, les perspectives dégagées lors de la conception du prototype du poste de lecture assistée par ordinateur, de 90 à 93, doivent être non seulement reprises et mises à jour, mais aussi approfondies ou déplacées.
Le principal de ces déplacements revient à considérer le web non seulement comme un réseau de textes, mais aussi comme un réseau de lectures, et encore comme un réseau de lecteurs.
Dans un texte récent, j’ai défendu ce caractère collectif de la lecture numérique et présenté pourquoi il conférait un rôle politique et des droits au public, précisément comme réseau de lecteurs.
stratégie
Rédigé à 15:57 dans Publications | Lien permanent | Commentaires (2) | TrackBack
01/19/2005
Bien commun et bien (s) commun (s)
Le 19/01/05
Bien commun et bien (s) commun (s)
(Cette note est une sorte de fiche sur la (les) notion (s) de « bien commun ». Une première version a été diffusée lors de l’université d’été de la FING, à Aix, en mai 2004. La version présente est sensiblement remaniée et augmentée sans être définitive.)
J’ai pensé que cette fiche pouvait être utile s’agissant d’une notion extrêmement ancienne, et même chargée historiquement, mais qui n’est utilisée que depuis peu dans le secteur des nouvelles technologies, ou plus généralement, dans le domaine culturel.
La note tourne autour de la distinction nécessaire entre « Bien commun » et « biens communs ».
Je propose quelques remarques, surtout de méthode, à la fin de la fiche.
1/ Un peu d’étymologie et de vocabulaire
Encore plus que les notions, déjà partiellement présentes chez Aristote, le vocabulaire provient des romains.
Bien vient de bene, adverbe, avec lequel on fabrique : bene dico = dire du bien (bénédiction), bene facio = faire du bien (bienfait, mais aussi bénéfice), benevolentia = bon vouloir (bienveillance, bénévole), benignus, opposé à malignus = malin, avare, (bénin, Bénines).
Bonus, adj = bon, de bonne qualité.
Bonum, subs = un bien, un avantage. Au pluriel, bona = les choses bonnes, opposées aux maux, et les biens, les avoirs. Peu de constructions à partir de bonus et elles apparaissent à la période chrétienne (bonifacies, boniloquus).
Commun vient de communis, adj = commun, accessible.
D’où dérivent : communio,subs = mise en commun, caractère commun, communion au sens religieux ; communitas = communauté, état, instinct social ; communicare = partager, recevoir en commun, communiquer.
Les romains connaissent le(s) bien(s) public(s) : bonum publicum. Mais c’est Thomas d’Aquin (XIIIème )qui créera la notion philosophique de bonum communis = bien commun.
Il faut souligner la force et l’imaginaire du lexique anglais autour de common. Nous avons en français : ré – publique ; ils ont : common wealth (le bien être commun). La chambre des communes représente les commoners, gens du commun. Il faut compter aussi avec l’idée de « common law » : droit coutumier.
Une sortie récente de Bill Gates contre les « communistes » des logiciels libres a suscité la réponse suivante de Lawrence Lessig, l’initiateur des Creative Commons : « nous sommes des commonistes, pas des communistes ».
Le bon, le bien, l’Occident tricote à l’infini la confusion des « valeurs » : richesse, plaisir, morale. La langue française cultive l’équivoque jusqu’au sublime : les gens de bien le sont parce qu’ils en font avec celui qu’ils ont.
Ces derniers temps, la bonté est redevenue formidablement décorative. Là, bien sur, il faut écrire : qui s’en plaindrait ? Je n’ai pas d’expérience individuelle de la bonté des gens bien, mais une telle infirmité ne diminue en rien mon enthousiasme à participer à ce règne du bon et du bien que le XXIème siècle promet d’être, ni, je l’espère, ne trouble mon raisonnement sur le bien commun.
D’ailleurs, comme on sait, le mieux est l’ennemi du bien. C’est même le troisième lieu commun étudié par Léon Bloy.
On appelle oxymore une alliance de mots contradictoires et bien commun semble l’être. Les gens du commun – le vieux français dit le comun des janz – prennent plaisir à s’opposer trait pour trait aux gens de bien.
Avec un esprit commun, ils ont une tendance fâcheuse à vouloir faire le bien avec celui qu’ils n’ont pas, et on les voit persifler, soupçonnant toujours du bénéfice derrière le bienfait. « Monsieur le Baron a bien voulu m’élever au rang de domestique ». Finalement on frissonne à l’idée de faire partie du comun des janz, le commun des mortels.
2/ le(s) bien(s) commun(s)
On utilise ici les notions de base du droit romain, telles qu’elles ont rebondi, par exemple, en France, avec le Code civil (Napoléon).
Les romains distinguent deux catégories majeures du droit : les personnes et les choses (res).
Un bien, c’est une chose qu’on peut s’approprier, ou dont l’appropriation fait question.
Les Institutes de Gaïus (IIème siècle après J.-C.) spécifient les res sacrae, édifices religieux dédiés par le peuple romain aux dieux supérieurs, les res religiosae, lieux du culte familial, et les res sanctae, murs et portes de la cité. Il y avait aussi les choses de droit public, res publicae. Toutes ces choses s’opposaient aux res privatae, les choses privées, en cela qu‘elles n’appartenaient et n’étaient susceptibles d’appartenir à personne. Elles étaient res nullius, choses de personne.
Les Institutes de Justinien (VIème siècle) distinguent : les choses sacrées, propriété des dieux ; les choses publiques, qui appartiennent à l’état ou à la cité ; les choses communes, comme la mer ; les choses privées, propriété des personnes, précisément organisées par le droit privé.
La théorie classique du droit (Domat, XVIIème siècle) distinguera, outre la chose publique (res publica) : la chose qui appartient à tous et ne peut appartenir à personne en particulier, ou res communis = chose commune ; et la chose qui n’appartient à personne en particulier, mais pourrait appartenir à quelqu’un, ou res nullius = chose de personne. Soit la mer, chose commune, et les poissons, chose de personne.
En droit français, on sait que la propriété triomphe avec le Code Civil, qui la définit comme « droit le plus absolu de jouir et de disposer d’un bien matériel ».
Mais dès le milieu du XIXème siècle, le consensus disparaît. Mikhaïl Xifaras écrit : « la désintégration du dogme propriétaire nous offre le spectacle d’un droit des biens désormais orphelin de l’intuition théorique qui lui donnait l’apparence de l’unité ». La propriété devient « faisceau de droits » (« La Propriété »).
Par exemple, certains juristes vont essayer de distinguer le domaine public, ou les biens du public « être moral et collectif » du patrimoine des états particuliers.
Autre exemple de cette « désintégration » : s’appuyant sur les caractéristiques du monde des idées, le créateur du droit d’auteur « français », Renouard posera que « les idées sont de libre parcours » et distinguera le droit d’auteur, y compris moral, qu’il soutient, et la propriété des idées, qu’il récuse. Sous son influence, un arrêt de 1887 sanctionne l’abandon provisoire de la « propriété littéraire ».
Dans la période récente, les notions de bien public, bien commun, bien public mondial ou local sont utilisées à nouveau, dans une approche fondamentalement économique, pour les questions de développement, ou de régulation de la « mondialisation ».
On prétend définir les biens publics par les critères suivants : les biens publics bénéficient à tous ; personne ne peut en être exclu ; la consommation par l’un n’empêche pas la consommation par l’autre.
Dans ce contexte, les biens communs sont une notion utilisée par les environnementalistes, dans un sens proche des res communis et res nullius des romains.
Une sorte de théorie économique des biens publics mondiaux a été publié par le PNUD en 1999 (« Global Public Goods », Kaul, Grunberg et Stern).
3/ le Bien commun
A l’origine de la notion se situe l’œuvre de Thomas d’Aquin, relisant Aristote.
Aristote, c’est à dire deux textes : Les politiques, et l’Ethique à Nicomaque.
Premier « chapitre » des politika. Chaque communauté (famille…) est constituée en vue d’un certain bien, agathon. La communauté suprême, ou la plus souveraine de toutes, qui toutes les inclut, c’est à dire la cité, vise le bien souverain entre tous, le bien suprême. Elle existe pour permettre à l’homme, de mener une vie heureuse, eu zein, de vivre bien.
Thomas (XIII ème siècle) relit la Politique d’Aristote dans la Somme théologique. Il suit Aristote mais s’en démarque sur un point important.
La cité suppose « l’existence d’un bien commun…Tout comme le tout est plus important que la partie et lui est antérieur…la cité est antérieure à l’individu…et son bien est d’une dignité plus élevée…que celui de chaque individu pris en lui même….Par la connaissance de la loi naturelle l’homme accède directement à l’ordre commun de la raison, avant et au dessus de l’ordre politique auquel il appartient en tant que citoyen d’une société particulière. »
Là où Aristote fait dépendre la qualité de la vie individuelle de celle du régime politique, Thomas pose que l’homme peut obéir au bien commun, indépendamment du système politique.
Cette œuvre eût une portée considérable, avant d’être critiquée par les politiques modernes (Machiavel). Elle connait un rebondissement au XXème siècle avec les thomistes (Maritain).
Gaston Fessard, dans « Autorité et bien commun », 1944, décompose le bien commun en trois sous ensembles :
« 1/ le bien de la communauté : les biens publics ou autres mis en commun,
2/ la communauté du bien : le caractère effectif de l’accès de chacun aux biens communs,
3/ le bien du bien commun : la nature et l’équilibre de la relation entre l’individu et la communauté. »
(Je n’ai pas lu ce livre, cité par Claude Rochet).
Récemment, cette notion a été réactivée par des courants assez divers : certains libéraux, comme Popper (« The abdication of philosophy : Philosophy and the public good », 1994, non traduit), ou Leo Strauss (« Histoire de la philosophie politique »), mais aussi les courants « républicaniste » (Quentin Skinner) voire « populiste » (Christopher Lasch), aux Etats Unis.
En Europe, citons Ricardo Petrella (Groupe de Lisbonne, altermondialiste, « Le bien commun »,1996).
Il me semble que deux thèmes illustrent assez bien cette orientation en faveur du bien commun.
a/ La critique du « relativisme » moral, intellectuel et culturel, du refus des normes et de l’autorité, du culte de l’individu et du narcissisme.
On condamne particulièrement l’abdication des parents devant les enfants, et la judiciarisation de la vie publique ou privée. (Voir le site américain commongood.org).
La critique de l’économie – et de l’idéologie libéraliste- par ce courant tient essentiellement au fait que l’économie est par excellence le domaine où règnent le relativisme et l’individualisme, et où, par conséquent, le respect, la reconnaissance voire la discussion du bien commun sont refusés.
b/ La méfiance à l’égard de l’état et de la bureaucratie, et, en tout cas, la nécessité de ne pas confondre bien commun et intérêt général.
L’intérêt général serait le bien du prince, dans le sens où il est de sa responsabilité, et vise les biens publics et les règles générales de la cité. C’est l’exemple classique du service public à la française dont la mission d’intérêt général est définie par la loi.
Le bien commun, lui, implique plus que le respect de la loi exprimant l’intérêt général. Il nécessite un engagement de chacun comme condition de fonctionnement de la règle. Le bien commun n’est pas une norme ; il n’est pas défini par convention ; mais il existe cependant comme objet d’une discussion entre personnes responsables.
4/ Bien commun, bien(s) commun(s) et internet
Il y a donc une certaine dose d’ambiguïté autour de ces notions, ambiguïté construite historiquement et redoublée par l’ignorance que « nous » en avons.
La même formule désigne des choses et un état d’esprit, voire une philosophie. Les choses elles même sont très diverses et composent un catalogue éclectique : l’eau, l’air, la couche d’ozone, le patrimoine génétique, les idées. J’ai lu récemment que le syndicalisme européen et la fonction publique européenne devaient être considérés comme des biens communs.
Cet éclectisme, et ce passage du plus matériel au plus spirituel sont substantiels à la théorie même du bien commun. Thomas partait de la constatation que parmi les biens auxquels aspirent les hommes, certains, parmi les plus importants, sont partagés dans une jouissance commune. De cette base, qui est celle de la communauté humaine, il remontait jusqu’à un ordre supérieur, celui du bien commun.
Je n’insiste pas sur une autre difficulté : la grande diversité des courants, soit politiques, soit disciplinaires, soit professionnels qui utilisent ces notions.
Le bien commun est faiblement compatible avec l’idéologie libéraliste (mais pas avec le libéralisme, ni politique, ni économique). Pour Hayek, « dans une société libre, le bien commun consiste principalement en la facilité offerte à la poursuite des objectifs individuels inconnus ».
Ce qui est certainement frappant, c’est le caractère apparemment adapté à l’internet de cette philosophie, alors que nombre d’autres théories ont fait long feu.
J’en vois trois raisons :
1/ les limites évidentes de la logique du marché et de celle des états pour construire le cadre commun de l’internet.
2/ le rôle de ces choses ou biens dont l’appropriation ne peut être pensée dans les termes habituels : les protocoles (TCP/IP, WWW), les idées techniques génériques (l’hypertexte), les logiciels libres, les contenus ouverts.
Prenons le cas des textes classiques numérisés. Lorsqu’il s’agit de Gallica, nous sommes devant un bien public dont l’égalité d’accès est correctement garantie. Pourtant les textes eux même « appartiennent à toute l’humanité » ; ils s’apparentent à un bien commun.
3/ l’importance des nouvelles formes collectives sur le net, mais aussi des nouveaux comportements individuels : logiciels et contenus libres, wiki, blogs d’information.
L’exemple donné par Michel Briand, dans le cadre de l’Université d’été de la Fing, me semble parfait. Si un professeur diffuse certains résultats de son travail plus largement, on ne peut pas soutenir a priori qu’il le fait par intérêt individuel. Mais on ne peut pas non plus ranger cette initiative dans la notion d’intérêt public, puisque cet intérêt public, défini par la loi, n’impose au professeur que d’enseigner.
La notion de bien commun connaît donc un certain succès dans les milieux liés à l’internet.
Les Creative Commons font précisément référence à cette notion.
Les arguments de David Bollier, un des promoteurs des Creative Commons, me semble assez proche du courant de Skinner : l’état fédéral américain, empiétant sur les droits traditionnels des américains, a le tort de soutenir les forces économiques qui cherchent à privatiser les commons, définis comme « une création de la nation et de la société dons nous héritons ensemble et sans conditions ».
En Europe, Philippe Quéau a proposé un approche du « bien commun mondial », intégrant la propriété intellectuelle, et Philippe Aigrain une « coalition des biens communs ».
4) Remarques provisoires sur l’utilisation de la notion de bien commun
Première remarque très générale : avoir l’œil sur le positionnement du bien commun dans les différents discours et sur la signification tactique du recours à la notion.
Par exemple, pour Bollier, la common property est à mi chemin entre la propriété privée et la propriété publique. Pour d’autres, ce sera une philosophie supérieure qui devra s’exercer aussi bien sur un fond d’intérêt privé qu’à partir de l’intérêt public.
Dans certains cas, le bien commun se voudra opposition à l’appropriation privée, au monopole ; dans d’autres cas, il signifiera l’abandon de l’intérêt général organisé par la loi, et son remplacement par la chose commune dont tous doivent s’occuper, la morale évinçant le politique.
Deuxième remarque : je ne crois pas beaucoup à la démarche qui consiste à faire dériver une politique de bien commun d’une quelconque nature commune de biens aussi différents que les idées, l’air, les gènes, le service public. La tentative de rhabiller les vieilles définitions scolastiques par des raisonnements « économiques », où les lois du développement durable se substitueraient à celles de la providence, je n’y crois pas non plus.
Les juristes du XIXème siècle ont trop tiré sur le fil. Nous arrivons après. Voici Renouard cité par Xifaras :
« Il faut renverser les termes de la proposition de Domat si l’on veut remonter à son explication juridique. Ce n’est pas parce que ces biens sont communs à tous que nul ne s’en rend maître ; c’est parce que nul ne s’en rend maître qu’ils sont communs à tous. »
Autre remarque qui précise la précédente : l’idée de biens naturellement communs est trop « naïve » pour nos sociétés, mais elle s’exprime, pour le numérique, à travers l’énumération d’opérations qui « vont de soi », qui se « justifient techniquement », l’opérabilité, voire une banale fonctionnalité imposant le collectif, donc le commun ou le libre.
Dernière remarque provisoire : soyons sages comme les romains. Il y a les choses ou les biens ; il y a les personnes. Des objets et des sujets. Par exemple, le sujet type de la propriété privée, c’est le paterfamilias.
On peut trouver « fumeuse » la philosophie de l’auteur – l’autorité – qui se trouve « derrière » le droit d’auteur, mais un droit d’auteur organise une théorie de l’auteur et cette théorie – ce dogme- participe à l’institution de la propriété littéraire.
Bref, pour bien s’occuper du « quoi » ou du « comment », s’occuper aussi du qui.
(Je reviendrai sur cette version dans quelques semaines et je donnerai alors des références complètes).
Rédigé à 19:38 dans Publications | Lien permanent | Commentaires (0) | TrackBack
07/05/2004
Hypertexte, Autorité, Espace public. 2.
HYPERTEXTE, AUTORITE, ESPACE PUBLIC 2
DEUXIEME PARTIE
(Ce texte reprend la deuxième partie d’une intervention orale faite lors d’un Séminaire de la Fondation des Treilles, à Tourtour, en mai 2000. Ce séminaire portait sur les supports de la mémoire.)
DU COTE DU LECTEUR
31/ Après avoir présenté la question du côté de l'auteur, je l'examine maintenant du côté du lecteur.
32/ Affaire Shlashdot contre Microsoft // Le libre, l'hypertexte et la priorité au lecteur
Cette affaire opposait Microsoft et le forum de discussion Shlashdot. La société américaine reprochait au forum d’avoir laissé reproduire dans une contribution un extrait de sa littérature technique.
Cette affaire est assez compliquée, puisqu'elle réunit et combine la quasi totalité des débats actuels sur l'espace public numérique : opposition entre le copyright et le droit à l'expression, qualification conflictuel des usages de citation et de lien, et, enfin, c'est le point que je retiens pour le moment, conflit entre la conception propriétaire, patrimoniale du logiciel et du texte et la conception dite du libre.
Les expériences éditoriales conduites à partir des forums reposent sur un collectif nécessairement limité, et au minimum sur un élément de contrat qui est la décision libre de chaque auteur de participer au forum.
Alors que le projet technologique de l'hypertexte est de construire un modèle qui va permettre non seulement la structuration et la lecture hypertextuelle d'un texte ou d'un ensemble de textes donnés, donc d'un auteur singulier ou d'un ensemble plus ou moins important d'auteurs, mais bel et bien de l'ensemble des textes, de la totalité des textes.
Ce modèle de communication généralisée des textes correspond bien à la notion d'interconnexion généralisée des réseaux, donc des machines, donc des hommes, qui est celle de l'Internet, et l'hypertexte s'est réalisé ici sous la forme du WWW.
Mais c'était l'hypothèse de départ de Nelson.
Les deux fondateurs de l'hypertexte, Nelson et Van Dam s'opposaient sur deux alternatives : d'une part, un hypertexte wysiwig, c'est à dire un hypertexte à sortie papier, thèse de VanDam, et un hypertexte écran, totalement numérique, thèse de Nelson ; et d'autre part, opposition entre un hypertexte restreint, une œuvre ouverte mais bien identifiée, un texte-auteur, comme il y a des langages-auteur (Van Dam), et le modèle d'un dépôt universel des textes (Nelson).
La relation entre les deux alternatives est assez évidente pour qu'il ne soit pas nécessaire d'insister. Avec le WWW, c'est le modèle Nelson qui s'est trouvé réalisé, peut être sous une forme rustique, mais homogène et cohérente.
Evidemment, la gestion d'un grand nombre d'auteurs pose immédiatement la question de la gestion des droits qu'on ne peut résoudre que de trois façons : délégation (figaro), identification (sociétés), création d'un quasi domaine public ou d'un " libre " du texte.
Lorsque l'on croise le succès de ce modèle technologique, le WWW, avec un autre succès, et un autre modèle, Linux ou GNU, pour simplifier, on se trouve en face de deux difficultés, qui sont celles de la philosophie du libre dans le domaine des textes, de son propre régime d'autorité.
Première difficulté : elle est qualitative et correspond à ce que le droit français appelle le droit moral.
La transformation d'un élément de logiciel ne peut nuire à l'auteur initial puisqu'il garde la possibilité de ne pas l'intégrer. En revanche, des textes en source libre peuvent fort bien être associés avec d'autres textes d'une orientation radicalement contradictoires.
C'est d'ailleurs sur ce constat que s'appuient, dans un contexte différent, les journalistes pour s'opposer aux pratiques d'agrégation des contenus.
Deuxième difficulté, elle est en quelque sorte quantitative. Le nombre d'informaticiens concernés par le développement d'un logiciel donné est nécessairement limité. Il est comparable à celui des utilisateurs d'un forum, et c'est bien pour cela que l'hypothèse d'une extension de la philosophie du libre s'est développée dans ce secteur.
En revanche, il est sans commune mesure avec la dimension du public de lecteurs de certains textes d'information, ou même de textes littéraires connus.
Il ne s'agit plus alors de recomposer un éditeur, ni même d'organiser un auteur collectif, mais d'instituer sur des bases radicalement différentes les usages et les droits du lecteur en général, comme lecteur-auteur.
Nous sommes donc très clairement dans cette hypothèse, empruntée par les hypertext studies au post structuralisme, d'une priorité au lecteur.
Avant d'être devant une question de droit, nous sommes devant une alternative cognitive : opter pour une extension et une radicalisation de la lecture ; ou bien la limiter à son usage actuel, voire la restreindre en raison des effets négatifs du numérique sur la propriété littéraire, en privilégiant la création et la diffusion des oeuvres.
Pour examiner ce que pourrait être la structure d'un nouveau droit du lecteur-auteur, il faut en examiner certaines composantes pratico-techniques.
C’est ce que je vais essayer de faire dans les exemples suivants, autour de trois thèmes : la copie, la citation, le lien.
33/ Propriété littéraire : directive européenne et acte américain / / La copie numérique
Le gouvernement américain, à la demande d’Hollywood, avait fait passé une législation limitant les copies privées numériques. La Commission européenne travaillait sur une directive qui, sur ce point, pouvait aller dans le même sens.
Le sujet de la copie numérique est large.
Je me limite ici aux pratiques de copie dans le cadre de la lecture et de l'écriture hypertextuelle.
Premièrement, la copie, la version, l'instanciation du texte sont au cœur de la technologie hypertexte.
L'hypertexte a partie liée avec cette prolifération verticale du texte que le traitement de textes avait suscitée. Le dispositif conçu par Engelbart cherchait à maîtriser l'évolution, à travers différentes versions, des documents de conception des programmes. C'est un problème de traitement des variantes, que l'on retrouve par exemple avec les éditions génétiques.
Deuxièmement, la copie numérique privée est à la base de la constitution d'hypertextes personnels, par exemple d'archives.
Mais, de manière très générale, la copie numérique est utilisée dans tout le traitement de textes.
C'est bien pourquoi l'abandon du principe d'exception de copie privée pour un passage à l'autorisation de copie privée, conforme à la vision patrimoniale du droit d’auteur connue comme propriété littéraire, serait nécessairement une restriction de l'usage de la lecture informatisée.
Techniquement, on peut considérer que la lecture informatique impose la copie numérique.
Mais c'est dans une forme particulière de copie numérique que le modèle de l'hypertexte joue le plus spécifiquement : la citation.
34/ Net2One, éditeurs de presse, Geste // La citation et son droit
Dans cette affaire, les éditeurs de presse, et un organisme représentant la presse en ligne s’opposaient à un agrégateur, start-up typique du moment, rendue célèbre par le succès que son jeune président avait rencontré au Sénat. La question posée, Qu’est ce qu’une citation ? Jusqu’où va le droit de citation ?
Techniquement, la citation a une portée beaucoup plus générale que ce que laisse entendre sa définition juridique.
Toutefois, on peut trouver une définition commune à la citation comme pratique d'écriture dans l'ordre des textes et comme droit particulier de la propriété littéraire : c'est une copie intégrée à un texte, une copie active, une copie écriture et pas seulement une copie lecture.
Fonctionnellement, la citation est l'inverse de l'annotation.
Vous connaissez mieux que moi les travaux théoriques sur la citation. On pourrait citer Gérard Genette. Je pense aussi à la démarche de Bernard Stiegler qui a essayé d'extrapoler la pratique de citation dans le secteur des systèmes documentaires audiovisuels.
La citation numérique est une pratique technique générique, de la génération des textes à la musique techno.
Elle a un rôle centrale dans l'hypertexte parce que l'écriture hypertextuelle repose sur la notion de fragments.
L'hypertexte est une écriture fragmentaire, non séquentielle. Nelson parle de chunks, souvent traduits par blocs. Barthes parle de fragments et de traits.
L'hypertexte littéraire est le domaine d'élection de l'écriture fragmentaire, beaucoup plus que d'autres types de textes présents sur le web.
Cette écriture fragmentaire est une composition qui associe fragments internes, originaux, et fragments externes, empruntés : ce sont les citations.
Les fragments internes sont considérés comme une affaire privée ; mais les fragments externes, les citations sont organisées par la loi.
Si l'expertise en matière d'écriture fragmentaire se situe du côté de l'écriture littéraire, il faut bien mesurer que, de plus en plus, les écritures et les publications courantes y font appel.
Et ces publications courantes, le pragmatic writing des américains, comme la presse en ligne, sont grandes utilisatrices de citations.
L'indication d'une source, dans un environnement automatisé se rapproche très sensiblement de la citation (sur ce plan l'argumentaire de Net2One n'est pas complètement faux), et l'utilisation de la citation, ou du renvoi pousse à la fragmentation interne du texte.
Pour résumer, l'hypertexte est parfaitement contradictoire avec la notion d'une autorisation de la citation. Il impose au contraire une pratique très large de la citation, et de toutes les formes de copie-écriture.
35/ Slashdot-Microsoft, ou Geste// Le lien
Un conflit, déjà évoqué, et une charte : dans les deux cas la pratique du lien se retrouvait limitée juridiquement, en fonction de son voisinage avec la citation ou la copie.
Microsoft assimile le lien, ou en tout cas, les liens utilisés par les auteurs de Slashdot, à une copie. Dans la Charte du Geste, le lien est autorisé (ce qui veut dire qu'il n'est pas un droit) pour autant qu'il ne soit pas considéré comme contraire à la politique éditoriale de l'éditeur.
Jusqu'à cette date, le lien n'était pas un objet juridique identifié.
La solution de MS et celle du Geste ne sont pas équivalentes. MS rabat le lien sur la copie. Le Geste reconnaît la spécificité du lien et en limite l'usage.
Peut on considérer, thèse maximaliste, que le lien équivaut à la copie, ou bien, thèse réduite, que certains types de liens équivalent à la copie ?
Je crois que les deux thèses sont fausses, et la première tout particulièrement parce que les différentes catégories de liens répondent à des sémantiques différentes même si, sur le net, tous les liens ou presque sont programmés et figurés de la même manière, ce qui, d'ailleurs, contribue grandement à la robustesse d'ensemble du dispositif.
Dans le cas qui oppose les éditeurs de presse et les agrégateurs, le lien visé est un lien d'amplification, comme celui qui permet de passer d'un sommaire ou d'une table au corps du texte.
Dans le cas de MS et de Slashdot, le lien est une fonctionnalité de renvoi, de citation, sans être la citation elle même.
Il n'est pas nécessaire d'insister sur le rôle de la technologie des liens dans l'hypertexte. Ils sont le complément des fragments. L'autorisation des liens est, comme celle des citations, parfaitement contradictoire avec le modèle de l'hypertexte.
Conclusion: Ce qu'institue l'hypertexte ?
41/ Le droit ne nous renseigne pas sur le rôle de la technologie comme facteur instituant.
Et notamment une thèse juridique évacue et fait obstacle à la compréhension des relations entre la technologie et l'espace public : la thèse de la neutralité technologique.
Neutralité technologique : une règle de droit doit s'appliquer autant que faire se peut indépendamment du "support " ou de la " technique ".
Il y a deux versions de la neutralité technologique.
Selon la version forte, la technique n'institue rien ; seul compte l'usage. Selon la version faible, il y a un manque essentiel de la technique à instituer, qui doit être comblé du dehors, notamment par une maîtrise de sa socialisation (c'est la critique du technicisme par Wolton).
Sous ses deux versions, la thèse de la neutralité technologique se donne comme une continuation du discours égyptien du Phèdre. Cette interprétation me semble erronée.
Platon distingue le " préjudice ou l'utilité ", d'une part, et l'usage, d'autre part.
Il propose une théorie de l'utilité de l'écriture (ou plutôt de son " préjudice ") : elle est un remède pour la remémoration, et une théorie de son usage : elle va être prise pour la mémoire, elle va lui prendre sa place.
Mais, dans ce texte, il n'y a pas de place pour un usage adéquat de l'écriture. Non seulement il n'y a pas de neutralité technologique, mais il y a une vérité technologique. Le projet de la technè écriture, c'est la remémoration qui est mauvaise en soi (ici). Le fondement de l'autorité de Thamous, c'est de connaître la vérité de l'écriture. La théorie de l'usage est donnée en plus.
Empiriquement, on vérifie d'ailleurs que l'approche juridique de la neutralité technologique n'est conservée qu'au prix de modifications des règles présentées comme de simples adaptations, alors qu'elles affectent en profondeur la technologie.
42/ La technologie de l'hypertexte a tendance à instituer un droit nouveau du lecteur.
Ce droit du lecteur synthétise les différents cas que j'ai évoqués et donne à leur solution une force supérieure aux tentatives d'adaptation.
Ce droit du lecteur pourrait trouver des sources dans les théories classiques de l'espace public.
Ainsi Kant, dans De l'illégitimité de la reproduction des livres : « …il y a eu une affaire que l’auteur voulait faire avec le public…Car l’éditeur ne possède le manuscrit que sous la condition de l'utiliser pour une affaire de l'auteur avec le public ».
Dans les termes de Kant, il suffit de considérer que l'auteur hypertextuel a une affaire avec le public, qui suppose des droits spécifiques du lecteur.
Le droit du lecteur ne se confond pas avec le droit à la lecture, qui n'en est qu'une partie, et pour l'essentiel, la seule organisée en droit français.
L'" accès à la lecture électronique ",i.e les moyens, et l'accès à l'enseignement de cette lecture sont des droits importants, mais vidés de leur dynamique, sans un droit plus général du lecteur.
Parce qu'il est institué par la technologie de l'hypertexte, le nouveau droit du lecteur est un droit à l'expression publique, un droit " à la communication ", un droit du lecteur-auteur.
A contrario, si la technologie était ignorée, pour cause de neutralité, ou comprise de manière erronée, le risque est grand d'orienter le fonctionnement de l'espace public vers des usages présentant des traits négatifs encore plus graves que ceux auxquels on aurait tenté de remédier.
Rédigé à 19:09 dans Publications | Lien permanent | TrackBack
Hypertexte, Autorité, Espace public. 1.
HYPERTEXTE, AUTORITE, ESPACE PUBLIC
PREMIERE PARTIE
(Ce texte reprend une intervention orale faite lors d’un Séminaire de la Fondation des Treilles, à Tourtour, en mai 2000. Ce séminaire portait sur les supports de la mémoire.
Tenu en présence de Michel Serres, il était organisé par Jean-Louis Lebrave, et Jean-Gabriel Ganascia.
Cette rencontre a été particulièrement fructueuse pour moi. En particulier, les interventions de Mary Carruthers sur Hugues de Saint Victor, bien que l’étendue de sa science m’ait un peu déprimé, et de Elena Llamas Pombo, sur l’art de la ponctuation, ont influé directement sur mon travail ultérieur.
Les passages en italique au début des parties viennent d’être ajoutés (juin 2004). Ils correspondent à des affaires que j’avais regardées, comme conseiller de Catherine Trautmann, ministre de la Culture et de la Communication, et que j’ai essayé de reconstituer.
Autrement, le texte n’a pas été retouché et il garde les caractéristiques d’une présentation orale.
Voir l’annuaire de la Fondation des Treilles que je remercie.)
Introduction
11/ Je vais essayer d'examiner la manière selon laquelle l'hypertexte, comme technologie culturelle, comme technologie des textes, tend à instituer, non seulement un nouveau régime d'autorité, mais aussi un nouvel espace public.
12/ La relation entre la technologie des textes et l'espace public est une grande question philosophique et historique.
C'est un sujet qui a ses lettres de noblesse : le discours égyptien final du Phèdre de Platon, la relation entre le livre et la publicité, posée par Kant.
C'est aussi un sujet d'actualité plus pratique, plus immédiate, plus politique, puisque l'hypertexte, dès son origine, et dans ses développements, s'est accompagnée d'une revendication pour la création d'un nouvel espace public, au moins pour une nouvelle forme d'expression, et de communication.
Je donne quelques exemples.
Le premier exemple est celui de Ted Nelson, l'inventeur de l'hypertexte, qui, avant Literary Machine , avait publié Computer's Lib dans lequel il présentait l'ordinateur comme un self média, un instrument critique contre la télévision.
De la même manière, Tim Berners-Lee, l'inventeur de HTML, HyperText Mark-up Language, et du Web, a, dès le début, placé cette innovation sous le signe d'un élargissement du pouvoir d'expression. C'est d'ailleurs un des thèmes habituels des promoteurs de l'internet et du web, en particulier, que de le présenter comme un dispositif qui favorise l'extension de l'accès aux libertés d'expression et de communication.
Autre exemple, plus récent, avec les tentatives d'étendre la philosophie des logiciels libres au domaine de l'expression, notamment pour ce qui concerne le texte et la musique, tentatives qui d'ailleurs rejoignent très fréquemment les logiques de l'hypertexte.
Richard Stallman, un peu comme Ted Nelson, s'est d'abord fait connaître sur les campus américains, comme un activiste du mouvement pour le " Free speech ", la liberté d'expression.
13/ Sur le plan de la méthode, je cadre le sujet, en précisant qu'il s'agit bien d'hypertexte.
Il ne s'agit pas simplement de numérique, notion insuffisante, mal construite en théorie, et qui ne permet pas de rendre compte des transformations importantes dans la production et la circulation des textes, comme d'autres types de données ou d'œuvres.
L'hypertexte est une entrée beaucoup plus riche, à la fois par ce qu'elle concerne les " couches supérieures " de l'écriture et de la lecture, et parce qu'elle correspond à des dispositifs techniques à la fois très utilisés et bien documentés, avec un niveau consistant d'élaboration théorique.
Deuxièmement, quand je parle d'hypertexte, comme technologie des textes, comme technologie cognitive, j'envisage l'ensemble des techniques, pratiques et usages, de Vannevar Bush jusqu'au web et aux forums de publication, qui participent de ce nouveau mode de circulation des textes, de ce nouvel ordre des textes à définir, à modéliser.
Et, s'agissant des courants, je prends en compte aussi bien le secteur des hypertext studies, au sens strict, avec leurs approches littéraires, linguistiques, informatiques, leur double proximité avec le post structuralisme et le post modernisme, le courant qui défend la philosophie " classique " du web, bien représenté par Tim Berners Lee, mais aussi toutes les tendances de la cyberculture, qui intègrent l'hypertexte comme une référence obligée, notamment, dans la période récente, le courant du libre avec son orientation de type libertaire, les forums comme Slashdot ou Nettime, et certains courants artistiques.
Autre élément de cadrage : il sera bien question de l'espace public en général, de l'actualité du principe de publicité, tel que Kant l'a posé, l'usage public de la raison et pas simplement d'un de ses aspects particuliers qui pourrait être le droit d'auteur.
Mon sujet croise, mais ne s'identifie pas au sujet " droits d'auteur et numérique " parce qu'il me semble intéressant d'associer dans la même réflexion, d'un côté : les questions qui relèvent ou semblent relever du droit d'auteur, et d'autres qui relèvent ou semblent relever du droit de la communication, et, de l'autre côté : un bloc technologique qui comprend des notions de liens, de fragments, de citations, mais aussi des tentatives d'écriture collective, et de formes nouvelles de publication.
En résumé, j'essaierai de confronter l'autorité et la publicité à la technologie, mais du point de vue de la technologie.
C'est un essai pour comprendre ce en quoi le fait social est institué par les technologies cognitives, et donc le fait culturel par les technologies culturelles, les technologies du texte, ici, l'hypertexte.
Cette tentative de rapprocher et de confronter une technologie donnée, l'hypertexte, comme technologie des textes et technologie cognitive, et l'espace public en général est une approche particulière.
En règle général, les hypertext studies se limitent à la question des droits d'auteur. Et les juristes, quand il s'agit de droits d'auteur, traitent le plus souvent des effets généraux du numérique, et non pas des effets à la fois plus précis et plus génériques de l'hypertexte.
Mais j'espère pouvoir montrer à travers les références que je vais vous présenter qu'on peut valablement poser la question de cette manière là.
Il y a tout de même un secteur dans lequel, grosso modo, elle est posée de cette manière là ; c'est le secteur qui envisage de proposer un nouveau mode de publication des textes, dans la ligne des logiciels libres, et en s'appuyant sur l'hypertexte. Mais il est vrai que c'est le seul exemple.
Ainsi présenté, le sujet a clairement l'inconvénient d'être beaucoup trop vaste. J'essaierai de le limiter en vous proposant une sorte d'introduction, un débroussaillage, sous la forme d'une nomenclature.
Cette nomenclature aura trois colonnes logiques.
La première colonne, celle qui correspond à la tentative d'illustrer la catégorie " espace public ", comprendra des affaires, des querelles, des sujets de débat, de procès, des morceaux de loi ou de contrats, appelons les des fragments d'affaires publiques.
La deuxième colonne rassemblera des objets techniques caractéristiques de la technologie et de la méthode de l'hypertexte. Ces objets techniques peuvent être des fonctionnalités, mais aussi des catégories plus prestigieuses, comme l' " auteur ", envisagées dans une perspective technologique.
La troisième colonne, ce sera une colonne d'annotations, de commentaires pour passer de la deuxième à la première colonne, pour essayer de proposer un lien entre la technologie et les questions d'espace public.
PREMIERE PARTIE
DU COTE DE L’AUTEUR
21/ Je regrouperai d'abord un certain nombre de lignes dans ce tableau, dans cette nomenclature, en nous situant du côté de l'auteur, et, en premier lieu, autour du thème du nom de l'auteur.
22/ Etoy contre eToys. // Noms de domaines et fonctionnalités du nom de l'auteur
Cette affaire opposait une association d’artistes et une marque de jouets sur la propriété du nom de domaine.
Indiscutablement, avec les noms de domaines, nous sommes à l'intérieur de l'hypertexte.
Par exemple, je peux à partir d'un simple courrier électronique, suivre un lien vers un site.
Il y a une différence de nature entre les domaines de l'internet qui sont reliés entre eux et les services traditionnels de l'information en ligne.
Cependant, les noms de domaines sont gérés à l'extérieur du w3c, et, depuis le départ, dans une optique " télécoms et droit de la propriété industrielle ".
Une polémique intéressante s'est développée sur cette préséance de la marque sur la personne morale d'un auteur collectif.
Sur le plan logique, l'organisation des noms de domaines produit à la fois une remise en cause de la nature fonctionnelle du nom de l'auteur comme entrée sur un texte, et la création d'une nouvelle catégorie (le nom de domaine) aux propriétés grammaticales et littéraires incertaines, à la fois auteur et titre. Le nom de domaine ne dit rien sur la qualité de l'auteur.
Par exemple, à partir des moteurs de recherche, le nom de David Lynch peut être trouvé. Les moteurs de recherche font d'ailleurs mal la distinction entre le nom-auteur et le nom-sujet.
Il n’est pas possible de distinguer a priori, dans le cadre de ce qui se donne comme l’équivalent du « peritexte », mais ne l’est pas, le site créé par Lynch, et celui de ses admirateurs ou distributeurs.
23/ Léonardo contre olats .// Moteurs de recherche, occurrences et concurrences.
Cette affaire opposait encore une association artistique et une société financière, mais, cette fois, non pas sur le nom de domaine, mais sur le fait que l’association reprenait sur les textes de son site son nom, identique à celui de la société mais qu’elle avait déposé avant.
Ici c'est donc la propriété même du nom qui est remise en cause avec cette situation baroque d'une concurrence purement linguistique et virtuelle - dans le monde " réel ", aucune confusion n'est possible entre les deux léonardo- créée par une machine linguistique primitive : le moteur de recherche.
On est bien, non pas au niveau symbolique, mais au niveau de l'information, dans cette disparition, cette mort de l'auteur approchée par le post structuralisme et le post modernisme.
24/ Projet de loi sur l'identification // Anonymes et pseudonymes
Il s’agit ici de ce qui devait devenir la loi sur la communication audiovisuelle, et des dispositions qu’elle comportait sur l’identification et le droit à l’anonymat.
En laissant de côté l'aspect purement policier, mais sans oublier de mentionner qu'en France, le web est le premier média qui suscite une telle revendication d'anonymat, je rapprocherai cette querelle de l'anonymat des positions d'un courant qui mobilise l'approche hypertextuelle au profit d'une esthétique de l'intervention de l'auteur, à travers sa prolifération, la multiplication de ses signatures.
On parle de personnalité multiple, de signatures liquides. Le contexte en est complètement renouvelé par l'hypertexte qui permet de mettre en relation ces différentes figures personnelles de l'auteur.
C'est une transformation très profonde de notre conception traditionnelle de l'intégrité de l'auteur, qui est permise non seulement par la multiplicité des sites, mais surtout par un étagement complètement différent de l'espace privé et de l'espace public, rendu possible par l'hypertexte.
25/ Le Figaro contre ses journalistes// L'écriture collective
Cette affaire opposait la direction et les journalistes du Figaro, la première s’appuyant sur la notion d’œuvre collective pour organiser d’autres valorisations du fonds rédactionnel, les journalistes demandant que toute nouvelle utilisation de leurs textes reste soumise à leur autorisation.
Je mets l'accent sur un point : la nature d'œuvre collective. (les patrons de presse s'appuient sur cette nature collective).
L'œuvre ouverte, la priorité au lecteur sur l'auteur, l'écriture collective sont des pièces maîtresses de la théorie littéraire de l'hypertexte.
Chez Bolter, dans Writing space, elles sont même un critère de l'hypertexte dans son opposition au livre imprimé.
Le paradoxe, c'est qu'il y a fort peu d'œuvre collective hypertextuelle dans le domaine de la fiction, de la littérature. En revanche elles sont légion dans le secteur des essais, des performances, de la littérature d'intervention.
Ce sont ici les forums qui jouent le plus grand rôle. Nettime, et surtout Slashdot avec ce qu'on appelle le Slashdot style. Le Slashdot style c’est précisément une certaine manière d’organiser, en obtenant un consensus, des liens hypertexte entre les interventions, entre le dedans et le dehors du forum. Autre exemple, plus traditionnel : la web encyclopédie d'Atlas.
On est là dans une tradition de l'hypertexte : les écritures collectives des informaticiens d'Engelbart, le projet Xanadu, les annotations à la TGB.
Dans cette perspective, le libre est une conception qui insiste d'abord sur la supériorité du travail collectif, dans le domaine des logiciels.
C'est ensuite une conception qui organise de manière différente, sinon la propriété, du moins le droit d'usage de l'objet, de l'œuvre concernée. Dans le cas d'un logiciel, la caractéristique du libre est essentiellement de donner un accès au code source du programme.
L'extension du libre aux œuvres textuelles pose la question de l'éditeur de ce travail d'écriture collective : quel est celui qui donne le bon à tirer, le final cut, l'ultime sélection. C'est précisément l'expérience du Slashdot style.
Rédigé à 17:49 dans Publications | Lien permanent | TrackBack
06/18/2004
Petites introductions à l'hypertexte 2
PETITES INTRODUCTIONS A L’HYPERTEXTE 2
(Ce texte a été publié dans « Banques de données et hypertextes pour l’étude du roman », sous la direction de Nathalie Ferrand. Presses Universitaires de France. Collection Ecritures électroniques. 1997.)
Deuxième Partie :
LITTERATURE ET INFORMATIQUE : LA THEORIE DE LA CONVERGENCE
La convergence
Acceptons ce qu'on nous dit : l'hypertexte comme carrefour - ou idée d'un carrefour - de l'informatique et de la littérature.
Mais plutôt qu'à célébrer ce grand rassemblement de spécialités, de savoirs et de personnalités, qui n'aurait pas pu ne pas se produire, attachons-nous à décrire les mouvements de quelques- uns : qui monte et qui descend? Est-ce d'un pas résolu ou par égarement ? Vont-ils poursuivre ensemble ? se séparer? rebrousser chemin? (toutes questions éminemment hypertextuelles).
Le plus clair est le déplacement de l'informatique vers la littérature qui correspond à une extension du domaine concerné.
Les premiers textes envisagés par les promoteurs de l'hypertexte ne relèvent pas de la littérature générale, même si celle-ci fournit d'abondantes références et " métaphores ". Il s'agit de textes techniques - et d'abord ceux de l'informatique elle-même (spécifications, représentations des données et traitements) et de ce qu'il est convenu d'appeler des " documents ".
Progressivement, l'approche hypertextuelle se généralise, résorbant la frontière entre le pragmatic writing et les lasting texts(textes de référence, patrimoine littéraire). De même, on expérimente la méthode pour l'enseignement de la littérature. Il reste que Slatin qui, dès 1988, présente l'hypertexte comme " un concept littéraire particulièrement adapté à la poésie du XX ème siècle", fait longtemps figure de cavalier seul dans les publications du MIT consacrées à l'hypertexte.
En sens inverse, de la littérature vers l'informatique, le mouvement est plus indécis. Dans un article récent, Paul Delany donne quelques exemples de " l'éclipse des études littéraires assistées par ordinateur ». Stanley Fish - que l'historien du livre Robert Darnton salue comme " un de ceux qui ont fait de la lecture le sujet central de la critique textuelle" - soutient que l'ordinateur ne sera jamais capable de produire des " interprétations " des textes. Et Marc Olsen proclame rondement en 1994 un "échec général des études littéraires assistées par l'ordinateur". Ces points de vue font certainement partie du tableau général, mais il est plaisant aussi de constater qu'ils correspondent très exactement, y compris dans le refus de l'intelligence artificielle, à l'orientation de Nelson.
Au début des années 90 se développe la théorie de la "convergence", en particulier dans trois livres- Writing Space, déjà cité, Hypermedia and literarv studies de Delany et Landow, et Hypertext, the convergence of contemporay critical theory and technology, de Landow.
Cette théorie peut se résumer ainsi : la notion d'hypertexte est l'occasion d'un rapprochement entre la technologie et les théories littéraires, représentées en particulier par le post-structuralisrne et la déconstruction
Landow parle d'un " choc de reconnaissance " et intitule son introduction « Hypertextual Derrida, poststructuralist Nelson? ». Le noyau de littéraires américains qui se sont intéressés à l'hypertexte au point de participer à la réalisation de certains logiciels (Intermedia et Storyspace) retrouvent dans les livres de Barthes, Derrida, Genette, les idées mêmes qui constituent leur orientation technique. Selon Landow, l'hypertexte est " littéralement une incarnation frappante de certains concepts majeurs de Barthes et Derrida ".
Ainsi, les différentes pièces de la machine littéraire de Nelson correspondent-elles trait pour trait à ces conceptions : les blocs de texte (chunks) s'identifient aux lexies de Barthes; la " structure de connectivité " au réseau, " galaxie de signifiants " (Barthes) ou « réseau de références » (Foucault). L'ouverture du texte, l'intertextualité, le décentrement-recentrement comme pratique de lecture, la prééminence du lecteur constituent l'horizon commun de la théorie et de la technologie.
La consistance de ce rapprochement est évidemment débattue. D'ailleurs l'utilisation coïncidente du mot "hypertexte " se signale d'emblée par des écarts évidents de signification et de registre que Jean-Louis Lebrave a relevés. Essayons au moins de déplier cette coïncidence en évoquant trois utilisations.
Genette classe et définit les différentes catégories de " transtextualité" et assigne à l'hypertexte la place d'une relation de dérivation d'un texte à un autre.
Nelson combine l'hypertexte comme écriture non séquentielle, l'intertextualité comme garantie de la méthode, la littérature au service de l'association.
Quand à Bolter, il qualifie d'hypertexte le régime global des relations transtextuelles
Sur cette dernière base se développe la définition largement répandue et passablement imprécise de l'hypertexte comme " réseau de textes ".
La théorie de la convergence est présentée avec plus ou moins de retenue. Mais elle penche toujours du côté du systématisme, en proposant une série simple de rapprochements simples :
- présentation de l'hypertexte et de l'hypermédia comme un nouveau stade technique instituant un autre régime de visibilité de l'écrit;
- correspondance entre les traits spécifiques du nouveau médium et les thèses d'une partie de la critique littéraire (post- structuralisme et déconstruction);
- correspondance, essentiellement sur la non-séquentialité, l'écriture fragmentaire, entre le mouvement de la littérature contemporaine et la technologie de l'hypertexte;
- plus généralement, rapprochement de l'ouverture hypertextuelle et de l'idée même de littérature, de " l'ordre des livres ".
Un des déconstructeurs américains, Hillis Miller, auteur de Theory now and then et de Fiction and repetition, s'est exprimé avec prudence sur la relation de son propre courant critique avec l'hypertexte : "La relation est multiple, non linéaire, non causale, non dialectique, et lourdement sur déterminée. Elle ne correspond pas à la plupart des modèles traditionnels pour définir des relations. "
Technologie de l'hypertexte
Une grande diversité de produits électroniques disposent de fonctionnalités hypertextuelles : des logiciels d'écriture, de lecture, d'édition, d'archivage, de recherche documentaire, de travail en groupe; des publications, multimédia ou non; des textes électroniques circulant sur le réseau.
Par exemple, Storyspace est un logiciel d'écriture hypertextuelle qui relève de la famille des traitements de texte et d'assistance à la rédaction. Le Poste de lecture assisté par ordinateur de la Bibliothèque de France a été conçu comme un dispositif de lecture informatique active, favorisant les parcours de type hypertextuel. HTML, (Hyper Text Markup Language) est le format des documents hypertexte utilisé sur le World Wide Web.
Tous ces produits ont en commun d'utiliser la même interface " nœuds et liens " . En un point donné d'un texte, l'utilisateur peut, généralement en " cliquant ", activer un lien qui conduit à un autre point du même texte ou d'un autre. Il s'agit là seulement de l'apparence, du style de présentation, peut-être provisoires, des fonctionnalités hypertextuelles. Tout dépend évidemment de la qualité et de la richesse du découpage en unités, et des liens eux-mêmes.
Un dispositif hypertextuel s'appuie en réalité sur deux directions techniques. la mobilisation des différentes caractéristiques du texte identifiées sur un plan informatique et l'organisation du parcours lui-même.
Un texte électronique est plus ou moins " connu par l'ordinateur". S'il s'agit seulement d'une numérisation en mode image, l'ordinateur ne connaîtra qu'une carte de points noirs ou blancs. A l'opposé, le texte peut être informé par toutes les caractéristiques qui auront ou pourront être relevées et enregistrées, au cours des différents processus de production et d'interprétation.
Ces caractéristiques peuvent se situer: soit au niveau de la langue: possibilités d'indexation, de recherche par cooccurrence, d'analyse stylistique, syntaxique, dictionnaires; soit au niveau du texte lui-même: caractéristiques physiques significatives, structure normalisée ou non, historique, autorité, péritexte; soit au niveau des différentes lectures et interprétations : historique et analyse des consultations et annotations.
La " navigation " reviendra à utiliser tel ou tel de ces descripteurs dans le cadre d'une lecture non séquentielle. Un exemple trivial est l'utilisation de la structure pour passer directement d'un sommaire à la page demandée. Mais le lecteur peut aussi identifier automatiquement certaines parties significatives du texte, procéder à une indexation, élargir sur d'autres vocabulaires (dictionnaire, thésaurus), et effectuer ainsi un parcours de lecture transversal, original. En théorie, plus riche sera l'auto-information du texte électronique, plus efficace et plus significative la navigation hypertextuelle.
Dans cette première direction, d'une certaine manière, tous les liens se valent : du point de vue de l'ordinateur, " voir aussi " et " aller à la suite " ne sont pas des liens techniquement différents, même s'ils disposent de représentations distinctes à l'écran; le lecteur ou le scripteur sont seulement assistés pour produire le sens du parcours. L'hypertexte se situe du côté de l'homme plutôt que de celui de la machinerie. Il est à la peau du médium.
La seconde direction technique ne transforme pas mais déplace ce rapport homme-machine. Il s'agit, ici, de produire plus ou moins automatiquement le parcours d'écriture-lecture, en se rapprochant de la programmation. On pourrait qualifier d'hypertexte extensif la première direction qui cherche à exploiter les différentes informations sur le texte, et d'hypertexte intensif l'intégration de cette exploitation et de la simulation organisée du parcours lui-même.
Il n'est pas très utile d'insister sur les difficultés innombrables qui jalonnent cette deuxième piste. Différentes méthodes peuvent être utilisées.
L'une porte sur la sémantique des liens; elle vise à organiser la relation que l'on souhaite établir entre deux parties de textes, entre un texte et un traitement. Certains logiciels permettent de nommer, de hiérarchiser les liens, et de leur affecter des symboles graphiques. Il est beaucoup plus difficile de les définir et de les classer.- "aller à", "commenté par", et "opposé à" n'appartiennent pas aux mêmes groupes de liens.
Une autre méthode revient à modéliser les interventions sur le texte et à représenter et proposer différentes positions d'écriture-lecture. Il s'agit, dans ce cas, de simuler une qualification du lecteur, à partir des parcours précédents, en fonction de ses intérêts, connaissances et spécialités propres.
Enfin, en recourant, par exemple, aux modèles topographiques, on peut s'efforcer de générer automatiquement des parcours.
Ces différentes composantes de la technique hypertextuelle ne forment pas une boîte à outils dans laquelle on pourrait puiser indifféremment. Leur importance respective dépend étroitement de la démarche littéraire adoptée : édition de textes connus déjà sous la forme imprimée, ou écriture électronique originale; accent porté sur le texte ou sur l'opération de lecture/écriture.
L'édition hypertextuelle - c'est le cas le plus fréquent - revient à automatiser les fonctionnalités de l'objet-livre : plutôt que de tourner les pages, ou de chercher physiquement le livre cité, y accéder directement. Tantôt elle pallie les faiblesses du médium électronique, tantôt elle produit une économie de lecture entièrement renouvelée.
En soi, cette transformation est déjà considérable : déplacement des genres littéraires et éditoriaux, des relations entre le texte et le "péritexte", production d'une nouvelle interface typographique.
Autrement dit, les éléments hypertextuels anciens, que Bolter décrit en quelque sorte comme dominés, comprimés dans le cadre du livre imprimé, ne sont pas conservés à l'identique au cours de leur automatisation.
Mais l'écriture hypertextuelle est d'un autre ordre. Elle représente un engagement dans le sens de la fragmentation, de la digression, de la multiplication des parcours, jusqu'à la position la plus radicale que Jean-Pierre Balpe décrit comme une organisation chaotique, aléatoire de l'écriture. Pour ce type de composition, la technologie d'un hypertexte intensif est évidemment nécessaire.
Il est assez tentant de déplacer la question en passant du comment au qui, de la technique au lecteur/auteur. Plutôt que de retenir les qualités hypertextuelles d'un texte donné et de son support, on insiste alors sur l'intervention active du lecteur/auteur, sur l'hypertextualisation. Cette approche est d'ailleurs conforme à la définition originale de Nelson. : l'hypertexte autre mode d'écriture, plutôt que catégorie de textes, ou nouveau régime de visibilité de l'écrit.
La notion d'hypertexte pourra désigner finalement le plan de travail du lecteur/auteur, l'enchaînement de ses opérations textuelles, de ses " manœuvres ". Jacques Virbel propose de regrouper ces opérations en quatre grandes classes composant : un système. le marquage ou balisage, la structuration, l'annotation, la prospection informatisée.
En tout cas, cette lecture hypertextuelle ne peut manquer d'influencer le régime d'autorité littéraire. C'est ce que démontre la communication sur Internet: plutôt que de faire circuler des textes ou de l'information, le réseau met les hommes en relation. Il redispose, et socialise d'une nouvelle manière les auteurs-lecteurs, et leurs différents moyens techniques (textes, images, sons, programmes). L'hypertexte joue comme vecteur technique et modèle culturel de cette transformation plus profonde que ne le laissent percer les débats juridiques; par exemple, la possibilité concrète d'établir un lien touche aux droits d'accès, de citation,de réponse.
Grand prophète celui qui peut décrire à la fois toutes les nouveautés du support, du style, de la société des auteurs-lecteurs.
Parmi les théories de l'hypertexte que j'ai évoquées, beaucoup se veulent consolantes : l'adéquation naturelle de l'homme et de la technique est leur parti pris politiquement correct. Paradoxalement, elles contribuent à diffuser une notion ouverte, nullement harmonieuse, mais, au contraire, passablement problématique et critique à l'égard des correspondances, convergences, relations entre l'écrit et le support, l'homme et la technique.
Références bibliographiques
Ouvrages :
Balpe Jean-Pierre, Hyperdocuments, hypertextes, hypermédias, Eyrolles, 1990.
Bolter Jay David, Writing Space: The computer, hypertext, and the history of writing Lawrence Erlbaum Associates, 1991.
Genette Gérard, Palimpsestes, la littérature au second degré, Éditions du Seuil, 1982.
Landow George P., Hypertext. The convergence of contemporary critical theory and technology, The Johns Hopkins University Press, 1992.
Laufer Roger, Scavetta Domenico, Texte, hypertexte, hypermédia, PUF, " Que sais-je ? ", 2° éd., 1995.
Laurel Brenda, Computers as Theatre, Addison-Wesley, 1993.
Nelson Theodor Holm, Literary Machines 90. 1, Mindful Press, 1990.
Nelson Theodor Holm, Computer Lib, Mcrosoft Press, 1987.
Articles, extraits de recueils :
André Jacques, Vers un poste de travail sur l'écrit , in « Hypertextes et hypermédias », éds J.-P. Balpe, A. Lelu, I. Saleh, Hermès,1995.
Balpe Jean-Pierre, Quel avenir pour l'hypertexte ? , in « Les bases de données avancées » I. Saleh (éd.), Hermès, 1992.
Balpe Jean-Pierre, Un roman inachevé - Dispositifs, in « Informatique et littérature, » Littérature, n° 96, déc. 1994, Larousse, 1994.
Barrett Edward, Thought and Language in a Virtual Environment , in « The Society of Text », E. Barrett (ed.), The MIT Press,1989.
Bush Vannevar, As we may think , Atlantic monthly, july 1945, repris dans Nelson, Literarv Machines.
Clément Jean, Du texte à l'hypertexte: vers une épistémologie de la discursivité hypertextuelle, in « Hypertextes et hypermédias », 1995.
Clément Jean, Fiction interactive et modernité , in Littérature, n° 96.
Delany Paul, L'ordinateur et la critique littéraire , in Littérature, n° 96.
Engelbart Douglas, A conceptuel framework for the augmentation of man's intellect, in « Information Handling », vol.1, Spartan Books, 1963.
Giffard Alain, Nouveaux médias et nouvelles structurations , in Archimag, n° 7, avril 1993.
Giffard Alain, La fatalité fictionnelle , in Art Press, n° 14, hors série, 1993.
Giffard Alain, Le clou et la clé , in Dossiers de l'audiovisuel, n°54, INA-La Documentation française, 1994.
Grunberg Gérald, Giffard Alain, New orders of knowledge, new technologies of reading , in « Future Libraries », R. H. Bloch, C. Hesse (eds), University of California Press, 1995.
Kay Allan, User Interface: A Personal View , in « The Art of Human Computer Interface Design », B. Laurel (ed.), Apple Computer, Inc., 1990.
Landow George P., Delany Paul, Hypertext, Hypermedia and Literary Studies: The State of the Art , in « Hypermedia and Literary Studies », P. Delany, G. Landow (eds), The MIT Press, 1991.
Lebrave Jean-Louis, Hypertextes-Mémoires-Écriture , in Genesis, n° 5, 1994, Éditions Jean-Michel Place, 1994.
Laufer Roger, L'écriture hypertextuelle: pratique et théorie. A partir d'une recherche sur Rigodon de Céline , in Littérature, n°96.
Mazhoud Omar, Pascual Elsa, Virbel Jacques, Représentation et gestion d'annotations, in « Hypertextes et bypermédias », 1995.
Nanard Marc, L'apport des travaux de recherche dans les hypertextes aux techniques éducatives, in Actes du séminaire « Hypermédias, éducation et formation. 1994", E. Bruillard, B. de la Passardière, G.-L. Baron (éds), 1995.
Nelson Theodor Holm, The right way to think about software design, in « The Art of Human Computer Interface Design »,1990.
Rizk Antoine, Streizt Norbert, André Jacques, Hypertext: Concepts, Systems and applications, Cambridge University Press, 1990.
Slatin John M., Hypertext and the teaching of writing , in « Text, Context and Hypertext », E. Barrett (éd.), The MIT Press, 1988.
Slatin John, Reading Hypertext.- Order and Coherence in a New Medium, in « Hypermedia and Literary Studies », 1991.
Stiegler Bernard, Machines à lire, in « Sciences de l'information et de la communication », D. Bougnoux (éd.), Larousse, 1993.
Stiegler Bernard, Machines à écrire et matières à penser , in Genesis, n° 5.
Virbel Jacques, Annotation dynamique et lecture expérimentale: vers une nouvelle glose? , in Littérature, n° 1996.
Virbel Jacques, La lecture assistée par ordinateur et la station de lecture de la Bibliothèque nationale de France , in « Les banques de données littéraires », A. Vuillemin (éd.), PULIM, 1993.
Virbel Jacques, Reading and Managing Texts on the Bibliothèque nationale de France station, in « The Digital Word », P.Delany, G. Landow (eds), The MIT Press, 1993.
Yankelovich Nicole, Meyrowitz Norrnan, Van Dam Andries, Reading and Writing the Electronic Book , in « Hypermedia and Literacy Studies », 1991.
Rédigé à 17:45 dans Publications | Lien permanent | TrackBack
Petites Introductions à l'hypertexte.1
PETITES INTRODUCTIONS A L’HYPERTEXTE 1
(Ce texte a été publié dans « Banques de données et hypertextes pour l’étude du roman », sous la direction de Nathalie Ferrand. Presses Universitaires de France. Collection Ecritures électroniques. 1997. )
Première Partie
METHODE ET MEDIUM
Il y a une légende de l'hypertexte.
Elle s'organise autour de la figure centrale de Ted Nelson, inventeur, pionnier et chroniqueur, et des deux génies tutélaires qu'il s'est choisis, Vannevar Bush et Douglas Engelbart. Elle s'actualise avec le succès pratique, la banalisation technique de la notion, intégrée à la plupart des produits d'édition électronique et au mode de consultation de l'internet.
Ce récit est rapporté partout; pour la plupart des littéraires, il semble pourtant flotter dans le vague, dans le mystère; c'est une légende qui se déroule " chez les informaticiens ", c'est-à-dire nulle part.
On commencera donc ces petites introductions par une histoire et géographie de l'hypertexte, disposée autour de deux mouvements; l'un va de la méthode au médium, l'autre de la littérature à l'informatique. La " technologie de l'hypertexte " s'efforce de répondre à la question : " Comment ça marche? "
L'idée américaine
L'hypertexte est une idée américaine. Beaucoup plus qu'une théorie ou un concept, il s'agit d'une méthode, d'un art, d'une approche. Elle participe du radicalisme américain en la matière: il y a de meilleures manières (méthodes, techniques, outils) de penser, d'écrire ou lire, comme il y a de meilleurs régimes diététiques et de meilleurs exercices physiques, et elles doivent être développées, promues, concurrencer les autres.
Dans notre cas, la discussion sur les " bonnes et mauvaises méthodes" se déroule à l'intérieur d'un milieu, d'une micro-société de spécialistes qui s'intéressent à la fois à l'informatique et au texte. Ils pourront être des enseignants de littérature; ils seront plutôt ceux qui, dans les départements de littérature, conçoivent des logiciels ou conduisent des expériences pour leurs collègues. Ils pourront être des ingénieurs des sociétés d'informatique; ils seront plutôt des experts de ces sociétés pour le travail sur le texte. Ils pourront être des consultants, ils seront plutôt des artisans, des réalisateurs d'objets techniques.
Dans aucun autre pays, ce milieu de médiateurs, théoriciens et praticiens, n'a une telle importance qu'aux États-Unis. Le débat sur la notion d'hypertexte emprunte donc les voies normales de la légitimation au sein de ce milieu.
Theodor Nelson est assez généralement considéré et se considère lui-même comme le fondateur de l'hypertexte, le premier à avoir utilisé le mot en 1965. Cependant l'idée en est préfigurée dans un article de Vannevar Bush, " As we may think ", paru en 1945.
Bush, conseiller du président Roosevelt, directeur du Bureau de recherche et de développement scientifique américain, y présente Memex, un système qui ne sera jamais réalisé, une " espèce d'archive personnelle ". La technique référencée est analogique : cellules photographiques, tubes cathodiques, bandes magnétiques. Memex vise à développer de "puissantes aides mécaniques " à la pensée, à la soulager de ses aspects répétitifs. Le dispositif intègre des écrans et un tableau qui permettent d'associer, de créer des pistes entre les documents.
L'article de Bush influença le deuxième précurseur de l'hypertexte, Douglas Engelbart. Engelbart est une personnalité centrale de l'histoire de l'informatique. Il eut très tôt l'idée que les ordinateurs pouvaient et devaient afficher des données à écran, et qu’ils pourraient ainsi devenir des outils d'aide individuelle à l'écriture et à la réflexion.
C'est au sein de son laboratoire, LARC ("Augmentation Research Center"), que furent développés, à partir des années 60, la plupart des éléments caractéristiques de la micro-informatique : la souris, le multi-fenêtrage, les conférences électroniques, le mélange de textes, de graphiques et d'images vidéo. Le dispositif NLS ("oN Line System") permettait à des chercheurs de partager dans une "revue" toutes sortes de documents, spécifications, etc. Les utilisateurs pouvaient passer d'un document à l'autre en pointant avec la souris sur telle ou telle zone de l'écran ou créer des liens croisés.
Bush et Engelbart: Nelson revendique cette double filiation dans son livre-manifeste sur l'hypertexte, Literary Machines, paru en 1981. La notion d'hypertexte se trouve ainsi légitimée par son rattachement aux deux périodes clés de l'histoire de l'informatique: sa mise en place dans la suite de l'effort de guerre américain, le tournant décisif de la micro-informatique. Elle est située aussi sur l'autre versant de l'informatique, contre IBM, et la conception " automatiste ", " machiniste ", du côté d'une approche humaniste et libertaire: le premier livre de Nelson s'intitulait " Computer Lib ".
Literary Machines, pour une large part, est donc la chronique des combats de son auteur contre les sociétés informatiques et les universités, de son isolement, de la mise en place du groupe de projet californien, jusqu'au lancement final de Xanadu en 1979, et son achat par la société Autodesk.
Nelson donne une définition lapidaire de l'hypertexte: " Par hypertexte, j'entends simplement l'écriture non séquentielle. "
La séquentialité du texte est celle du langage parlé, et de la chose imprimée. Elle ne doit pas s'imposer nécessairement comme régime de pensée, d'écriture et de lecture. La séquentialité du texte imprimé constitue la règle générale, qui supporte de nombreuses exceptions - de genres (dictionnaires, encyclopédies, manuels, journaux), de présentation (typographie dite "mosaïque " ou " foisonnante "), de fonctionnalités de certaines parties du texte (index, notes, tables, glose). Pour cette raison, Nelson qualifie l'hypertexte de "fondamentalement traditionnel ".
La séquentialité présente un double défaut: elle correspond mal au mouvement de la pensée, elle impose à tous les lecteurs une seule et même manière de parcourir le texte. Au lieu de multiplier les écritures, et les présentations, l'hypertexte proposera différentes versions du même texte activées par différents parcours en fonction des stratégies des lecteurs.
Même à ce niveau de généralité de l'hypothèse, une question s'ouvre: quelle différence y a-t-il entre une présentation hypertextuelle, et une présentation simplement " rnulti-séquentielle " ?
La réponse que donne Nelson apparaît bien à travers la description, elle aussi minimale, des différents styles d'hypertexte
- l'hypertexte par " blocs " ou " fragments " (« Chunk style hypertext »). Comme avec une encyclopédie, ou un jeu de fiches, le lecteur lit un bloc de texte, puis un autre, dans l'ordre qui lui convient;
- l'hypertexte étendu (« Compound hypertext ») fait appel à la notion de renvoi. Chaque portion du texte, présenté de manière non séquentielle, renvoie à un ou plusieurs autres textes. Se trouvent ainsi combinés l'association d'un texte à un autre (renvoi) et le passage d'un bloc à un autre, l'ensemble constituant le parcours ou " navigation ".
" Hyper " désigne alors un espace à n dimensions. Formellement, plus le nombre de textes auxquels renvoie le premier s'approche de la totalité des textes, plus augmente le caractère non séquentiel du dispositif.
C'est donc très logiquement que Nelson a été amené à concevoir une machine éditoriale globale, un dépôt universel des textes. Il l'a appelé Xanadu, double hommage à Coleridge et à Orson Welles. Xanadu représente un prototype illustrant le modèle d'hypertexte imaginé par Nelson, et un programme pilote à l'occasion duquel les principaux composants de la technologie de l'hypertexte ont été créés et testés. D'un autre point de vue, Xanadu est une anticipation d'Internet.
Méthode et médium
Quelle pouvait être la réception technologique de l'hypertexte ainsi conçu? Malgré la notoriété d'Engelbart et de Nelson, l'industrie informatique n'était nullement disposée à intégrer l'approche hypertextuelle comme élément clé de son développement. Les " fonctionnalités hypertextuelles " étaient identifiées mais cantonnées à certaines applications précises: la documentation volumineuse, le travail de groupe.
C'est le développement de l'ordinateur comme moyen de communication au cours des années 80, qui a relancé l'intérêt pour la méthode.
A ses débuts, l'ordinateur n'apparaît pas comme un nouveau médium, un objet technique de la même famille que le livre, le film de cinéma, etc. C'est un calculateur, et les langages de programmation s'appliquent progressivement aux fonctions de diverses activités sociales : on parle alors d'informatisation. En particulier, l'informatique apprend à produire du texte (photo-composition automatique, traitement de texte, publication assistée par ordinateur, édition électronique) sans rien modifier au produit final, au support, à son image.
Pour que l'ordinateur puisse prétendre à constituer un " nouveau médium ", selon la formule courante de la littérature informatique, il faut:
- une technique universelle de codage, stockage, traitement et transmission des données : c'est le cas avec la numérisation;
- un dispositif de représentation, restitution de cette information, ayant les qualités pratiques d'un support de communication : c'est ce à quoi correspond l'ordinateur personnel, et notamment l'ordinateur multimédia, véritable machine à lire, à voir et entendre;
- enfin, un art de la représentation, à tout le moins une méthode suffisamment généralisable. : c'est ici que peut jouer la notion d'hypertexte.
Considérer l'ordinateur comme un médium, plutôt que comme un " outil ", c'est déplacer l'intérêt des " fonctionnalités " vers " l'interface ", du moteur informatique vers l'interaction homme-machine.
Brenda Laurel, un des promoteurs de cette conception, compare l'ordinateur au théâtre : le spectateur n'ignore pas l'existence d'une machinerie, il sait qu'on a dû construire les décors, etc; mais il participe à la pièce en fonction de ce qui se passe sur la scène. Si l'interface est la scène de l'ordinateur, l'hypertexte pourrait en être le jeu ou la mise.
Ted Nelson fait clairement partie de ceux qui se rangent consciemment du côté de " l'invention du nouveau médium ".
Sa position s'est formée en plusieurs étapes.
- critique de " l'informatisation " simple automatisation des procédures existantes, qu'il s'agisse de recherche documentaire, de publication, d'enseignement. Le développement de l'informatique doit être l'occasion d'établir l'hypertexte comme méthode;
- critique de l'approche dominante du texte électronique, qui reste rivée à la " sortie papier ". La direction qui revient à prendre pour modèle la chose imprimée, et à rechercher la plus parfaite ressemblance de l'écran et de l'imprimé induit un biais dans la représentation. Nelson préconise de prendre l'exacte mesure du médium, de dégager résolument ce que son interface a de spécifique. Ce point fera l'objet de divergences avec un autre spécialiste de l'hypertexte, Andries Van Dam, réalisateur du logiciel Intermedia à la Brown University;
- critique des interfaces actuelles considérées comme un bricolage provisoire. Pour Nelson, l'ordinateur multimédia est un matériel qui ne dispose pas de son mode de représentation spécifique.
Certains commentateurs vont proposer une vision plus systématique, en un sens plus radicale, du rôle de l'hypertexte dans le médium. L'ouvrage de Jay Davis Bolter, Writing Space (L'espace de l'écriture), ainsi que les diverses collections de textes éditées par Ed. Barrett au MIT illustrent bien ce courant.
Prenons l'exemple de Bolter. Il a peu de choses en commun avec Nelson. : c'est un universitaire, de formation à la fois informatique et littéraire, qui recourt fréquemment aux références européennes.
Writing Space développe une analyse de l'hypertexte autour des questions de l'avenir numérique, informatique du livre et du texte. D'après Bolter, le livre imprimé est en passe d'être marginalisé par l'ordinateur comme médium.
L'hypertexte est l'axe de constitution de ce nouvel espace d'écriture et de lecture qui s'oppose, point par point, à celui du livre imprimé.
Les principaux traits de cette opposition pourraient se résumer ainsi
-livre imprimé. : norme séquentielle et linéaire, structure habillée typographiquement, fixité de la forme, texte limité, unitaire, principe d'un bon parcours de lecture, prééminence de l'auteur;
-ordinateur : norme non séquentielle, hypertextuelle, structure visible, à nu, fluidité et malléabilité de la forme, texte illimité, indéterminé, en réseau, ouverture à des parcours multiples de lecture, intervention et prééminence du lecteur.
Il s'agit donc bien d'une proposition, nouvelle et globale, pour le nouveau médium. Pour mesurer sa nouveauté, il faut rappeler quelles visions de ce qu'il était convenu d'appeler " le livre électronique » prévalaient dans la phase précédente. Elles combinaient l'insistance sur les capacités importantes de stockage et de transmission, le recours aux procédures d'informatisation du texte, notamment en matière linguistique, et la recherche d'une parfaite ressemblance entre le texte-écran et le texte-papier. Caractéristique de cette approche était l'ambiguïté sur le médium : le livre électronique désignait tantôt le support, CD-ROM par exemple, tantôt la machine à lire, l'ordinateur.
Selon Bolter et d'autres commentateurs, l'hypertexte indexe le médium électronique.
Pour l'essentiel, trois grandes caractéristiques définissent cette structuration par l'hypertexte de l'espace écrit : la pluralité des présentations, le réseau de textes, l'écriture et la lecture non séquentielles.
Le texte typographique se présente sous une forme matérielle stable, une seule pour tout lecteur, l'imprimante étant l'image inversée de l'imprimée. D'une certaine manière, le rôle de l'opération éditoriale, pour sa partie technique, revient à produire une image du texte et une seule correspondant à la recherche d'un effet de sens précis.
Au contraire, le codage numérique autorise un jeu immédiat entre le fichier électronique "matrice" et les différentes présentations possibles. Cet aspect de la question avait été repéré depuis longtemps au stade de la production du texte. il suffisait d'admettre que la lecture électronique n'était pas techniquement autre chose qu'une nouvelle production de ce texte soit, pour commencer, la production d'une nouvelle image du texte.
Aussi " évidente " qu'elle semble être devenue, cette constatation ne s'est imposée que très lentement. Comme s'il fallait détourner la proposition de MacLuhan - le contenu d'un médium c'est le médium précédent - la primauté était donnée à la recherche d'une ressemblance avec l'imprimé, donc à la définition d'une seule forme qui convienne, et d'une adéquation de l'écran et du papier. Cette tendance bloquait nécessairement l'évolution vers la lecture électronique.
Aujourd'hui, sous des appellations diverses, " interactivité ", " virtualité ", " document actif ", la plupart des spécialistes s'accordent sur cette spécificité du médium électronique: dans la lecture sur ordinateur, le fichier de texte ne correspond pas à une image fixe mais à une diversité d'images possibles. Cependant, il s'en faut de beaucoup que le rattachement de cette caractéristique à l'hypertexte soit acceptée de tous. En effet, ici, l'hypertexte vaut seulement comme théorie favorable par principe à la multiplicité des présentations et des lectures, et convoquant, dans cette optique, les qualités propres du médium ; elle ne les suscite ni ne les organise.
L'idée qu'un texte n'est pas une entité fermée, séparée, est l'idée même de littérature. En insistant sur les dépendances, connexions, renvois, les informaticiens donnent facilement aux littéraires l'impression de redécouvrir une évidence. C'est simplement que pour l'informatique, la littérature est encore une idée neuve. En forçant à peine le trait, l'image ancienne et dominante du texte pour l'informatique pourrait être celle d'un sac de données, relié seulement à d'autres objets par des descriptions extérieures, elles-mêmes produites et organisées par le système d'information.
Les partisans de l'hypertexte ont voulu rompre avec cette tendance, caractéristique notamment des bases de données anciennes. Ed. Barrett l'affirme explicitement dans The Society of Text et justifie ainsi sa formule : " Plutôt que d'informatiser le texte, textualiser l'ordinateur. "
Il faut insister sur le caractère technique de cette " intertextualité informatique ". Elle apparaît comme une qualification majeure, voire une condition de la lecture électronique, en particulier comme lecture extensive.
La consultation, la lecture extensive d'un texte donné sur l'écran a une faible performance par rapport à la lecture du même imprimé. En revanche, le réseau informatique de textes offre, en vitesse et maniabilité, une économie de lecture très supérieure.
Il n'a pas pour seul effet d'améliorer la recherche documentaire ou littéraire en mettant à la disposition du lecteur un grand nombre de textes. Le texte est techniquement informé par le réseau, par la grappe des autres textes qui lui sont reliés : les différentes versions peuvent être comparées, les dictionnaires activés automatiquement, les annotations rassemblées.
Le World Wide Web sur Internet a particulièrement illustré la force de ce bloc de fonctionnalités. Il a aussi démontré que l'idée informatique du réseau de textes n'était pas une simple duplication du réseau littéraire. En général, les frontières des textes sont déplacées. L'internet, par exemple, trouble les limites des genres en fusionnant publication et courrier électroniques.
Pour le dire rapidement, le réseau, la lecture électronique extensive et l'hypertexte se sont renforcés mutuellement, dans un compromis technique efficace.
L'hypothèse de l'hypertexte se trouvait ainsi vérifiée dans la situation particulière de la lecture contextuelle. Mais sa validité en général comme "écriture non séquentielles (Nelson), ou "écriture topographique " (Bolter), et par là même sa place comme méthode ou interface du nouveau médium demandaient encore à être confirmées. Il apparaissait cependant clairement que des différentes approches informatiques qui traitaient de l'objet littéraire, l'hypertexte - aussi vague que soit la notion de réseau de textes, ou en raison même de son vague - était celle qui se rapprochait le plus d'idées facilement acceptées par la communauté littéraire.
Rédigé à 16:39 dans Publications | Lien permanent | TrackBack
06/16/2004
Projet Hypermedia Barthes 3
PROJET HYPERMEDIA BARTHES 3
Troisième Partie :
L' HYPERTEXTE "COMMENT VIVRE ENSEMBLE"
(Ce texte reprend la troisième partie de l’étude préalable à l’édition hypermédia du Cours de Roland Barthes au Collège de France : « Comment vivre ensemble ». Cette étude a été réalisée en 1996)
Le projet éditorial emporte donc non seulement l'utilisation de l'hypertexte comme "procédé", adapté au support électronique et convenant au texte de Roland Barthes, mais la réalisation d'un "réseau" hypertexte (ou d'une "toile", ou d'un "Web") convenant à la méthode de Barthes.
Après un déroulé d'un des traits présentés par Barthes, j'essaie de préciser l'orientation de travail pour ce réseau hypertexte.
UN EXEMPLE: LE TRAIT "ACEDIA"
Sur six mois, du 12/01/77 au 04/05/77, le séminaire "Comment vivre ensemble" comporte 14 séances. Une séance comporte la présentation de 2 à 5 traits; un trait peut chevaucher deux séances.
Les notes manuscrites correspondant à chaque trait ne s'étendent jamais au delà de dix pages; certains traits couvrent une page, le plus grand nombre, de deux à six. Il y a 30, ou 31, ou 32 traits classés dans l'ordre alphabétique, d'"acedia" à « xéniteia » ou "utopie" ou « et la méthode ? ». Le séminaire suit donc cet ordre.
Le trait "Acedia" comporte six parties:
- définition autour de la définition de Cassien;
- étymologie commentée ;
- références dans le réseau de textes: une étude de vocabulaire citant certains traits utilisés dans les Fragments d’un Discours Amoureux; références commentées de "la Montagne" et de "Robinson Crusoë";
- L'acedie c'est le désinvestissement d'une manière de vivre;
-Ce n'est pas le désespoir amoureux; c'est le deuil de l'investissement lui même , non de la chose
investie, de l'imaginaire, non de l'image;
-Relation de "l'acédie" et de "comment vivre ensemble": historique (le cénobitisme contre l'acédie), moderne (l'acédie moderne: on ne peut investir ni dans la vie avec quelques autres, ni dans la solitude).
A partir de ce déroulé, quelques hypothèses très simples, descriptives peuvent être faites, autour de la notion de liens.
- le nom du trait. On peut se servir du mot "acédie", non seulement pour accéder directement au trait, comme à un chapitre, mais en suivant ses occurrences dans l'ensemble du cours; par exemple, le trait "anachoresis" se retrouve dans les traits "animaux" et "athos".
- le reste du vocabulaire. Un index automatique peut permettre des sauts d'une occurrence à l'autre. Certaines "notions" sont utilisées par Barthes sur tout le séminaire: idiorythmie, monachisme.
Les traits des Fragments d’un Discours Amoureux sont réutilisés. Des "notions" internes à un trait sont distinguées (besoins/désirs). Un certain nombre de mots sont soulignés comme autant d'"entrées" possibles.
Reda Bensmaïa ("Du fragment au détail" Poétique n° 47) évoque le passage du fragment, unité de rang supérieur (lexies, figures, traits) au détail, unité minimale du texte dont les mots à double entente sont le meilleur exemple.
- l'intertexte "avoué" (selon la formule de Barthes).
Plusieurs textes sont des textes-appui, présentés comme tels et indexés pendant tout le séminaire: la Montagne magique, Robinson, Pot-Bouille, le "réseau grec" de l'histoire du monachisme. Ils sont souvent cités dans la partie "références" du trait mais peuvent aussi être disséminés dans tout le texte. Une lecture transversale peut être recomposée à partir de ces citations.
-la structuration. Grosso modo, la composition des traits est proche de celle des Fragments d’un Discours Amoureux: argument(définitions, références) et "corps" du fragment; sur ce plan, le trait "acédie" est régulier. La structuration pourrait donc être utilisée pour faciliter certaines liaisons caractéristiques des parties: ainsi, suivre le "réseau grec" dans l'ensemble des arguments.
Toutes ces hypothèses de présentation hypertextuelle sont possibles et elles posent toutes des
problèmes.
Le premier vient du caractère inachevé du texte. Nous ne sommes pas assurés que Roland Barthes aurait conservé cet état là de la structuration des traits. Nous ne disposons pas d'une table, d'un index, comme pour le Discours Amoureux, qui fasse mieux ressortir les effets de nomination et constitue la base d'autres lignes de lecture. Sur ce plan, tout index produit par l’édition devra partir de ce fait : l’absence d’index écrit par Barthes. La liste des traits elle même comporte des équivoques : faut il considérer « utopie » et « et la méthode ? » comme des traits. Bref on ne peut considérer l’état donné de la nomination comme définitif.
La deuxième difficulté tient à la définition des dites "unités minimales du texte", bref d'une indexation spécifique, et opératoire pour une consultation électronique.
Mais le plus difficile est la confrontation entre la méthode (hypertextuelle) de Roland Barthes en général et sa traduction en une présentation technique hypertextuelle.
L'ORIENTATION HYPERTEXTUELLE DU PROJET EDITORIAL
Rappelons les grandes caractéristiques de la méthode de Barthes:
-la nomination
-le classement par ordre alphabétique
-l'intertexte, les textes-appui
-le fragment: composition du trait, parataxe interne et externe, problème de la granularité du fragment (détail)
-la digression
-le geste encyclopédique.
Ce sont les principales caractéristiques, indiquées par Barthes lui même, de son protocole d'exposition, de sa "pré-méthode".
Pour concevoir un réseau, une toile, il nous faudra prendre en compte, d'une manière ou d'une autre, mais explicite, les différents postes de ce protocole.
Il faudra aussi intégrer d'autres composantes soit:
- le "peri-texte" éditorial, notes et index.
-ce qu'on pourrait appeler le "peri-texte informatique", par exemple, les produits d'une fonction de création et de recherche automatiques sur index.
L'édition électronique ne peut se résumer à proposer seulement un support de substitution, et un traitement qui ne s'appuierait que sur des fonctionnalités extérieures au texte lui même (peri-texte éditorial ou informatique). Il serait plutôt disproportionné que la navigation soit facilitée en ce qui concerne les couches ajoutées au texte, mais pas pour le texte lui même.
D'autre part, quelle que soit l'envergure de l'intervention du lecteur, l'orientation de cette lecture en forme de décomposition-recomposition reste une proposition, une responsabilité de l'éditeur et doit être comprise comme telle par le lecteur.
En regroupant les contraintes tenant au statut du texte (enregistrements sonores, "avant - texte") et à ses caractéristiques comme "hypertexte", je propose de retenir comme orientations de départ du projet éditorial les pistes suivantes:
+ Donner la prééminence à l'enregistrement sonore.
Il y a une publication, une communication du texte contrôlée par l'auteur et enregistrée.
Fondamentalement, c'est cette version qui est éditée. L'édition électronique doit respecter cette prééminence.
Ce principe est, sur le plan technique, hautement problématique, dans la mesure où, si les notions de lecture électronique "de visu" sont plus ou moins connues, celles qui leur correspondraient dans l'ordre d'une lecture- audition, en particulier dans le domaine littéraire, sont à inventer, à ma connaissance.
Il est donc assez vraisemblable, en ce qui concerne les fonctionnalités les plus "automatisées" que le dispositif fusionnera un audio numérique assez classique et des recherches plus poussées à partir de l'écrit électronique.
Cependant l'interface, la présentation peuvent parfaitement garantir cette prééminence de l'enregistrement oral. La fonction de synchronisation joue donc ici un rôle important.
+ Simuler les passages du texte à travers différentes versions: de l'écrit à l'oral, de l'oral à la transcription électronique.
Il y a une manière assez simple de permettre au lecteur-auditeur de prendre en compte l'interprétation par Roland Barthes de son propre texte, c'est de lui proposer une comparaison des notes et de l'enregistrement : le lecteur sera en quelque sorte, "derrière l'épaule" de Barthes donnant son cours.
Le travail sur les concordances entre les deux versions textuelles nécessite une saisie électronique des notes (version "diplomatique") et de la transcription de l'enregistrement sonore.
La notion de transcription doit être utilisée avec prudence: elle correspond dans la situation, au report d'un texte lu-écouté. La transcription est nécessaire et difficile.
Elle s'impose pour deux raisons. Techniquement, au delà des difficultés de déchiffrage du manuscrit, la lecture informatique s'appuie beaucoup plus efficacement sur du texte codé (dit "en mode texte"), que sur une photocopie électronique (dit "en mode image"). D'autre part, ne proposer de travailler qu'à partir d'une saisie des notes, c'est renoncer à la prééminence du cours donné sur le cours préparé.
La transcription est difficile, en soi, et pour l'effet d'illusion de publication qu'elle produit. Le relevé n'est pas dans notre cas une opération très risquée: les enregistrements sont de qualité, et on dispose des notes pour vérification.
En revanche, le risque d'illusion est maximal qui reviendrait à prendre la transcription pour une opération naturelle, neutre, et, sa présentation comme quasi validée par l'auteur, et, finalement, cette version là comme la version de base du dispositif éditorial. Au delà des inexactitudes des premières transcriptions publiées, c'est ce laxisme de la méthode et de la technique employées qui posaient problème.
Il devrait être possible, non seulement d'effectuer un relevé conforme, mais de problématiser la transcription. Il faudrait pour cela afficher les choix de présentation, c'est à dire les décisions typographiques censées correspondre, dans l'espace, aux différentes composantes de la séquence sonore. Cet affichage pourrait résulter de la comparaison entre deux versions de la transcription, l'une en flux, sans habillage typographique, et se présentant comme la plus proche de l'enregistrement sonore, l'autre, avec une présentation typographique "classique".
Techniquement, la démarche relève de l'utilisation de la cinétique des écrans dans la typographie électronique.
La fonction de comparaison sera ici centrale.
+ Proposer des parcours de lecture qui s'appuient sur la structuration et l'indexation.
L'approche par la structure et l'approche linguistique- par l'indexation- sont les plus utilisées comme base de la navigation hypertextuelle.
Au delà d'usages courants - faciliter l'accès direct par des découpages, et des pseudo "tables des matières"- la structuration joue de deux manières.
Elle permet - c'est l'approche qui a été théorisée par Jacques Virbel- une meilleure économie, en général, des traitements du texte, à quelque niveau ("couche") du système que ce soit: pour produire des index, placer des annotations, et évidemment pour lire-écouter.
L'approche par la structure est particulièrement nécessaire pour la navigation. Elle va permettre de produire des "noeuds calculés", c'est à dire de nouveaux groupes de textes et éventuellement des "liens calculés". Elle permettra aussi la comparaison entre les différentes versions.
Le découpage, la structuration peuvent s'appuyer sur deux types d'éléments:
- les indications fournies par Barthes sur la composition des traits.
- les indications graphiques du manuscrit.
L'indexation est la base d'une navigation transversale, d'un noeud-trait ou partie de trait à un autre en utilisant les mots comme ancres.
Rappelons que nous ne disposons pas, d'entrée, d'étude permettant de représenter le réseau global du texte, ni, a fortiori, de l'oeuvre ou d'un sous-ensemble de l'oeuvre de Barthes.
L'indexation peut s'appuyer sur:
- une production automatique, créant un "full-text";
- le travail de Barthes: la liste des traits, les index créés pour d'autres textes, et toutes les indications graphiques qui soulignent tel mot dans le corps des notes;
- l'index d'éditeur, tel qu'il a pu être constitué pour l'oeuvre publié.
Sans même parler d'un éventuel "typage" des liens, la qualification de ces différents index sur le fond, et quant à la navigation est une opération extrêmement difficile.
En partant de la définition que Barthes donne de l'index-relief, le projet pourrait se définir, puisqu'il concerne un "avant-texte", comme une sorte d'"avant-réseau" qui permette au lecteur à la fois de tirer parti d'une orientation hypertextuelle, mais aussi de mesurer ce qui "reste", ce qui, à la lecture, "résiste" à une navigation hypertextuelle telle que nous sommes capables de la procurer aujourd'hui.
Rédigé à 18:44 dans Publications | Lien permanent | TrackBack
Projet Hypermedia Barthes 2
PROJET HYPERMEDIA ROLAND BARTHES
Deuxième Partie :
ROLAND BARTHES ET L'HYPERTEXTE
(Ce texte reprend la deuxième partie de l’étude préalable à l’édition hypermédia du Cours de Roland Barthes au Collège de France : « Comment vivre ensemble ». Cette étude a été réalisée en 1996)
II serait plutôt paradoxal de conduire un projet de présentation hypertextuelle d'un texte de Barthes en méconnaissant le rôle qui lui est précisément reconnu dans ce secteur.
J'examine successivement
- la place de l'oeuvre de Barthes dans la littérature spécialisée
- le point de vue, la méthode de Barthes sur les différentes questions concernées aujourd'hui par l'hypertexte.
L'OEUVRE DE ROLAND BARTHES DANS LA LITTERATURE SPECIALISEE
La littérature spécialisée sur l'hypertexte est abondante et proliférante. Une bibliographie récente propose près de 300 recensions. Il parait à peu près un livre tous les deux mois sur ce sujet. Cette littérature provient de secteurs divers: la réflexion sur le nouveau "médium" électronique, les méthodes de conception informatique, l'information scientifique et la documentation, le travail en réseau.
En général, le développement de l'hypertexte a été considérablement facilité par le succès pratique de ce mode de présentation sur l'Internet (HTML: hypertext mark-up language).
Un trait distinctif de cette production est la place détenue par ce que l'on pourrait appeler l'école "littéraire" de l'hypertexte, pour la distinguer des travaux des informaticiens.
Cette école produit des recherches sur l'hypertexte; elle édite, sous cette forme, des textes, soit classiques, soit originaux; elle crée et diffuse des logiciels spécialisés. A côté du M.I.T, le centre le plus actif sur ce plan est la Brown University.
Des chercheurs: Barret, Bolter, Delany, Landow; des concepteurs techniques: Bernstein, Van Dam; une société: East End, qui publie les "Serious hypertexts".
Cette école, en tout cas ses principaux animateurs, ont progressivement été amenés à reconnaître en Roland Barthes un précurseur de l'hypertexte. Pour le dire prudemment, les auteurs américains trouvent de nombreuses ressemblances entre l'idée qu'ils se font de Roland Barthes et l'idée qu'ils se font de l'hypertexte.
Voici quelques repères.
Jay Davis Bolter présente un cas de conversion.
En 1989, présentant dans un colloque français la notion d'hypertexte, il qualifie la position de Roland Barthes sur la littérature de "mystique et mystérieuse" (« The book that writes itself ; the computer as a new technology of literacy »).
"Writing space", paru en 1991, constitue une sorte de manifeste de l'hypertexte en littérature, et une théorie générale du texte électronique. Bolter y mentionne abondamment S/Z et "De l'oeuvre au texte", connus à travers le Barthes Reader. Barthes figure, en particulier, un exemple d'écriture "non linéaire" (précisément la définition classique de l'hypertexte donnée par Nelson).
Delany et Landow donnent les mêmes références dans « Hypermedia and literary studies » (1991). Ils citent la définition du texte comme réseau, et utilisent le découpage du texte en lexies dans S/Z. Tout se passe comme si Roland Barthes, dans le champ de la théorie critique, et Nelson, dans celui de l'innovation technologique, adoptaient les mêmes principes.
C'est donc logiquement qu'en 1992, Landow, dans "Hypertext, the convergence of contemporary critical theory and technology ", fait de Roland Barthes un des pères fondateurs de l'hypertexte, avec Derrida. Landow parle d'un "choc of recognition". Il y a donc correspondance entre l'hypertexte et la théorie de Roland Barthes, et, de manière plus limitée (les textes sur l'écriture fragmentaire en particulier ne sont pas utilisés), entre l'écriture de Roland Barthes et l'hypertexte.
Ce point a été développé au cours du séminaire "Hypertexte", que j’ai animé avec Roger Laufer, dans le cadre du programme "patrimoine écrit" du CNRS, et lors d'une intervention au séminaire hypermédia de Paris 8.
LA METHODE DE BARTHES ET L'HYPERTEXTE
On peut considérer la méthode, en général, de Roland Barthes comme une deuxième source du projet éditorial à côté des deux versions du texte.
Une édition hypertexte d'un texte de Barthes devrait jusqu'à un certain point considérer ses indications méthodologiques comme autant de "macro-spécifications". Nous ne sommes pas en face d'un texte classique (ie linéaire) qu'il s'agirait de présenter en mode hypertexte, mais bien d'un hypertexte "équipé" par sa méthode.
Dans le cadre nécessairement limité de cette étude, je donne ici une simple énumération de diverses indications de Barthes, à partir de certains thèmes: fragments, ordre, méthode.
Le point de vue de Roland Barthes est explicite et ouvert. Lui même considère que son tout premier texte procédait déjà d'une écriture fragmentaire.
Après "Le plaisir du texte"-72-( fragments sans titre et table des fragments), Barthes expérimente différents moyens dans "Les sorties du texte" et "Variations sur l'écriture"-73-( un plan séquentiel comprenant des parties rassemblant des fragments eux même classés par ordre alphabétique).
Ce sont surtout "Roland Barthes"-75- et les "Fragments du discours amoureux"-77 qui contiennent le plus d'indications.
Dans "Roland Barthes", en particulier:
+ p 51: le vaisseau Argo, "dont les Argonautes remplaçaient peu à peu chaque pièce, en sorte qu'ils eurent pour finir un vaisseau entièrement nouveau, sans avoir à en changer le nom ni la forme". Allégorie d'un objet structural organisé par la substitution et la nomination. (La permutation est au coeur de la technologie hypertexte).
Dans "Comment vivre ensemble", à la métaphore Argo renvoie celle du jeu de cartes; à chaque donne, à chaque fois qu'un fragment a été déplié, les cartes sont rebattues; il y a un art de la constitution du texte qui n'obéit pas à la notion de système, ni de composition séquentielle.
+p 96/97: le cercle des fragments: "les fragments sont alors des pierres sur le pourtour du cercle"
"Non seulement le fragment est coupé de ses voisins, mais encore à l'intérieur de chaque fragment règne la parataxe"
"L'index d'un texte n'est donc pas seulement un instrument de référence; il est lui même un texte, un second texte qui est le relief (reste et aspérité) du premier: ce qu'il y a de délirant (d'interrompu) dans la raison des phrases"
+p 150: l'alphabet, présenté comme ordre immotivé opposé à la rhétorique. L'alphabet, c'est l'ordre de classement qui s'appuie sur la nomination: Barthes ne définit pas un mot, il nomme un fragment.
Les "Fragments du discours amoureux" sont annoncés par une sorte de note technique "Comment est fait ce livre"
Le dis-cursus ce sont des "démarches", des intrigues. Ce discours n'existe que par bris, par fragments que Barthes appelle des figures, en les distinguant de celles de la rhétorique. Ce sont des schémas; la figure c'est l'amoureux au travail. En tête de la figure, quelque chose qui n'est pas sa définition, mais son argument: exposition, récit, histoire inventée, pancarte à la Bertold Brecht. Aucune logique ne lie les figures, ne détermine leur contiguïté. L'amoureux parle par paquets de phrases, mais il n'intègre pas ces phrases à un niveau supérieur, à une oeuvre. Ces figures ne peuvent s'ordonner. La suite des figures est donc soumise, puisque le livre est astreint, par statut, au cheminement, à deux arbitraires conjugués: nomination et alphabet. Un exemple de cette opération de nomination: dans la table, la figure "affirmation" correspond à l'argument "l'intraitable". La nomination donne du jeu.
Dans "Leçon"- 78, Roland Barthes relie ainsi politique et méthode:
" Puisque cet enseignement a pour objet, comme j'ai essayé de le suggérer le discours pris dans la fatalité de son pouvoir, la méthode ne peut réellement porter que sur les moyens propres à déjouer, à déprendre, ou tout au moins à alléger ce pouvoir. Et je me persuade de plus en plus, soit en écrivant, soit en enseignant, que l'opération fondamentale de cette méthode de déprise, c'est, si l'on écrit, la fragmentation, et si l'on expose, la digression, ou, pour le dire d'un mot précieusement ambigu : l'excursion."
Voici enfin des extraits de la première leçon de "Comment vivre ensemble", sur la méthode des traits: "Le cours doit dès lors accepter de s'accomplir par succession d'unités discontinues: des traits. Je n'ai pas voulu (j'ai renoncé à ?) groupé ces traits en thèmes : il y a là, me semble-t-il, de plus en plus,(bien que l'usage social, universitaire, le requière sans cesse) une sorte de manipulation hypocrite des fiches, pour que chaque cas devienne rhétoriquement un "point à débattre", une quaestio."
« Pour moi, maintenant, quand je travaille, tout groupement thématique de traits (de fiches) suscite immanquablement, la question de B&P : pourquoi ceci, pourquoi cela? pourquoi ici, pourquoi là?= Réflexe de méfiance à l'égard de l'idéologie associative."
"Cependant: écrire discontinu (par Fragments), d'accord, c'est possible, ça se fait. Mais parler par Fragments?-Le corps (culturel) y résiste, il a besoin de transitions, d'enchaînements. Oratio = flumen."
"Ce problème déjà rencontré à propos des figures du DA: résolu alors en enchaînant artificiellement (en laissant le discontinu à découvert) selon un ordre qui n'est pas transitionnel : l'alphabet: seul recours (sinon hasard pur, mais j'ai dit: dangers du hasard pur qui produit aussi bien des séquences logiques)- j'en userai encore cette année pour mes "Traits"; mais il y a des chances pour que le discontinu soit encore plus flagrant (et offensif), parce que les "Traits" repérés sont beaucoup plus ténus, courts que les Figures du Da."
Nous pouvons donc considérer que nous sommes bien en face d’une « méthode Barthes ». Il le pose de manière explicite, en particulier au début du cours qui doit être édité. Il la synthétise, dans « Leçon » : fragmentation, et digression/excursion. Il énumère ses moyens privilégiés : la nomination et le classement alphabétique, le réseau de textes, le geste encyclopédique.
Pour l’essentiel, on peut admettre que cette méthode, telle qu’elle est présentée par Barthes lui même, correspond bien à l’idée d’écriture « non linéaire » des spécialistes américains de l’hypertexte.
Mais cette concordance est évoquée par eux à partir de textes anciens de Barthes (S/Z). Or la méthode de Barthes est une construction, un processus en cours à travers les différents textes.
De ce point de vue, des moyens considérés comme courants dans les approches hypertextuelles peuvent très bien être contradictoires avec ceux de la méthode de Barthes.
Et même : Roland Barthes peut parfaitement pratiquer un détournement des moyens habituels de l’écriture fragmentaire, et, en l’occurrence, une sorte de « détournement par anticipation » de l’hypertexte.
Prenons, s’agissant des entrées du texte, thème central chez Barthes, la question des index. Barthes joue à l’indexation. L’index lui permet de créer un nouveau classement, une nouveau réseau au sein du vocabulaire. Ni l’habituel index rerum, ni l’index automatique ne sont l’index écrit (et non produit) par Barthes (qui n’est pas non plus la liste des traits, ni celle de son fichier antérieur).
De même, la construction interne des traits, avec parataxe, tout comme le refus de les regrouper en thèmes sont incompatibles – du point de vue de la méthode- avec une proposition de lecture qui, sous couvert de « non linéarité » reconstituerait, intérieurement ou extérieurement, la fiche et sa « manipulation hypocrite ».
Comme on le voit, de la proximité entre certaines conceptions littéraires de l’hypertexte, d’une part, et la théorie, la méthode, l’écriture de Barthes, d’autre part, il ne s’ensuit nullement que la prise en compte du point de vue de Barthes, dans un projet d’édition multimédia, puisse se traduire sans interrogation par la simple adoption des moyens habituels aux démarches hypertextuelles.
Notes
B&P: Bouvard et Pécuchet
DA: Discours Amoureux.
Rédigé à 17:19 dans Publications | Lien permanent | TrackBack
06/14/2004
Projet Hypermedia Barthes 1
PROJET HYPERMEDIA ROLAND BARTHES 1
(Ce texte reprend la première partie de l’étude préalable réalisée en 1996. Elle traite des questions d’édition électronique).
L' EDITION ELECTRONIQUE HYPERMEDIA
DES COURS DE ROLAND BARTHES
Première Partie :
ETABLISSEMENT DU TEXTE, "AUTORITE" ET EDITION ELECTRONIQUE
Sur ce plan, le projet présente plusieurs caractéristiques: générales, comme projet éditorial, et particulières, comme projet d'édition électronique.
EDITER DES NOTES ET DES ENREGISTREMENTS
Les enregistrements sonores, ou les notes manuscrites constituent une archive, ou ce que les spécialistes appellent un "avant-texte". Autrement dit, l'auteur n'a validé, pour publication, aucun des matériaux envisagés, ni le texte écrit pour une publication sur papier, ni l'enregistrement sonore, pour une quelconque reproduction.
D'autre part, il semble impossible de considérer l'enregistrement audio comme une étape intermédiaire a priori plus proche d'un état final qui n'a jamais vu le jour. L'une et l'autre, l'enregistrement sonore et le manuscrit, sont seulement une image, une étape d'un travail en cours, le premier reflétant cependant, avec une certaine exactitude, une représentation du texte par Barthes lui même, dans une communication publique.
Le problème se trouve ainsi déplacé: comment procurer une reproduction de cet enregistrement dotée à la fois d'utilité et d'exactitude? Une reproduction audio, classique (cassettes, disque) et donc séquentielle est relativement exacte, mais pauvre d'utilisation. L'édition papier d'une transcription est plus utilisable, mais pose de redoutables problèmes d'exactitude et de fidélité.
Dans le cas présent, la publication irrégulière de transcriptions défectueuses a d'ailleurs fait l'objet d'un contentieux aujourd'hui réglé.
A la différence de ce que serait, par exemple, une version électronique du "Roland Barthes par Roland Barthes", on s'attend, ici, à ce que l'édition hypermédia facilite l'établissement d'un texte inédit, qui n'a pas été écrit dans cette perspective.
A ma connaissance, le cas est unique. Le plus souvent, les livres électroniques résultent d'un transfert du support de publication; les éditions électroniques originales sont le fait d'auteurs qui ont écrit leur texte en s'appuyant sur les nouvelles technologies; les rares publications d'archives concernent des fonds publics plutôt que des "textes d'auteur".
D'autre part, si on considère les deux ensembles (notes et enregistrements) comme un "avant texte", il me semble, sans être un connaisseur, que le dossier génétique est assez faible: peu de corrections, ni de variantes dans le manuscrit, assez peu d'indications graphiques en général. L'enregistrement est proche du manuscrit préparatoire: Barthes dit son texte.
Cela ne signifie pas que le rapprochement de l'écrit et de l'oral soit sans intérêt. Au contraire, l'étude du texte pourrait s'enrichir de l'étude de son interprétation par l'auteur lui même (pour autant qu'il existe des bases théoriques à ce genre de recherches, ce que je ne sais pas).
TROUVER UNE FORME HYPERMEDIA QUI CONVIENNE
Le principe retenu est de considérer la présentation sous forme électronique comme une opération d'édition à part entière.
Elle peut prétendre à la plus grande fidélité au texte et à la démarche de l'auteur ou, à l'opposé, revendiquer une interprétation, un nouvel éclairage. Mais, dans tous les cas, elle doit rendre explicite ce régime de fidélité, d'autorité, comparable, mais nécessairement distinct de ce qu'il est dans la culture du livre imprimé.
L'interface doit être au service de ce projet éditorial. Nous retenons comme orientation de "procurer une édition électronique qui convienne au texte de Roland Barthes", et non pas de "transférer sur support électronique les cours de Roland Barthes", ni de "produire un hypermédia à partir des cours de Roland Barthes".
La forme hypertextuelle concerne non seulement l'interface de présentation, ie grosso modo l'équivalent de la présentation typographique, mais aussi l'édition "intellectuelle" du texte, notamment sa structuration et son "appareillage de lecture".
Elle pose elle même des problèmes spécifiques et importants de fidélité au texte et à Roland Barthes. En effet, les présentations hypertextuelles ont pour vocation le souci de rendre possibles, et d'étayer techniquement de nombreux parcours de lecture différents.
Ainsi, l'édition hypertextuelle d'un texte "classique" peut elle se présenter, au choix, comme:
-la bonne organisation des parcours convenant au texte, en fonction d'une interprétation donnée,
-la possibilité de toutes sortes de parcours sans revendication de légitimité pour aucuns,
-une hypothèse d'éditeur permettant de produire une interprétation.
Soit: la bonne lecture, toutes lectures, une lecture possible.
La question de l'autorité, en matière d'édition hypertextuelle devient donc la suivante: comment et où se trouvent justifiées les différentes propositions techniques de parcours de lecture.
Dans le cas présent, cette question souffre deux complications.
Il s'agit d'une édition originale; donc les parcours de lecture ne peuvent pas être rapportés à un premier qui aurait été produit par Barthes lui même.
Ils peuvent l'être aux indications que Barthes a données, dans le cours et ailleurs, mais la familiarité apparente des principes de l'hypertexte avec ses propres conceptions doit être étudiée (cf. 2§).
Le principe retenu est le suivant: le réseau de lecture hypertextuel, explicite ou implicite, proposé à travers l'édition électronique doit être justifié pour pouvoir être critiqué.
Cette proposition n'est pas un commentaire du produit éditorial, un accompagnement; elle est partie intégrante de l'objet édité, visible à travers "l'interface de navigation". Il ne s'agit donc pas de réaliser un multimédia qui regrouperait deux sources de données différentes travaillées par des fonctionnalités informatiques non justifiées par le projet d'édition.
Rédigé à 17:22 dans Publications | Lien permanent | TrackBack
Mnémoniques La bibliothèque virtuelle
MNEMONIQUES
LA BIBLIOTHEQUE VIRTUELLE
(Cet article est paru dans le numéro 10 de Résonance, la revue de l’IRCAM, en mai 1996. Peter Szendy, rédacteur en chef de la revue avait voulu constituer un dossier sur les bibliothèques à l’occasion de l’inauguration de la médiathèque de l’IRCAM. Grâce à Claire Marquet, le texte était bien illustré et bien édité. De plus, il est correctement diffusé sur le net depuis huit ans).
http://mediatheque.ircam.fr/articles/textes/Giffard96a/
Rédigé à 16:20 dans Publications | Lien permanent | TrackBack
Le clou et la clé
LE CLOU ET LA CLÉ
(Ce texte a été publié dans le Numéro spécial 54 des « Dossiers de l’audiovisuel », publication de l’Institut National de l’Audiovisuel à la Documentation Française, Mars-Avril 1994. Sous la direction de Francis Denel, Geneviève Piéjut et Jean-Michel Rodes, ce numéro était consacré au « Dépôt légal de la radio et de la télévision ». J’ai laissé les sous titres mis par l’éditeur.)
Tout est pris. L'informatique rassemble sur un même support : textes, images et sons. Une seule et même industrie produit, stocke, représente et transmet.
C'est un grand rassemblement: le père de famille moderne tente d'impressionner sa maisonnée avec le CD photo qui est tellement supérieur aux diapositives ; le manager de Disney veut tailler des croupières à Nintendo ; bientôt la télévision sera un ordinateur ou l'inverse ; 1’ingénieur du Médialab pille les érudits italiens et rêve de construire en voxels un théâtre de sagesse ; le constructeur de machines veut des programmes et le très grand détenteur sera bientôt prêt à les lui vendre ; une scienza nuova se profile.
Elle aura peut-être une réponse à toutes ces questions qui n’en font qu’une : comment ça marche ? L'ordinateur est-il un médium ? Peut-il vraiment se substituer à tout ? L'informatique permettrait-elle une attitude moins passive à 1’égard du flux d'images ?
L’ouvrage de Paolo Rossi sur les arts de la mémoire s’intitule "Clavis Universalis", La Clé universelle. Clavus et clavis : nous avons le clou mais pas la clé, le support mais pas la méthode, une technique mais pas la technique (ou art), le papier et le caractère mobile, mais pas le livre.
L'art est incomplet. Cet inachèvement n'est pas fortuit ; il n’est pas une simple conséquence de l'ampleur de la tache. Il est étroitement lié à la manière dont l'informatique organise la représentation. La lecture électronique y compris la lecture électronique des images, n'est qu'une partie de cette question,
J'essaie de préciser la particularité technique de ces dispositifs ; je propose ensuite, à travers l'idée de simulation une description des opérations du point de vue de l’utilisateur.
L'informatique et l'explosion de la ressemblance
Copier
L'ordinateur n'a pas de difficultés avec la ressemblance. Grâce a la numérisation, il peut reprendre, reproduire, représenter tout ce qui a déjà été figuré. Reprendre de manière fidèle les données de toutes origines, y compris les images animées, et, pour ce faire, augmenter 1es capacités de stockage et de traitement : ce sont précisément les succès industriels obtenus dans ce secteur qui ont popularisé l'hypothèse de l'ordinateur comme nouveau médium.
L'autrefois célèbre Wysiwyg des traitements de texte se décline à tous les temps, et pour toutes les données : what you see is what you get (got). Ce que vous voyez à l'écran est fidèle au papier que vous imprimerez, à la cassette vidéo que vous avez numérisée, etc. L'idée d'incunables électroniques fournit, de ce point de vue, une approximation correcte ; de la même manière que les inventeurs de la typographie visaient d'abord une imitation fidèle des livres manuscrits, l'industrie informatique offre un substitut doté de ressemblance à l’imprimé, à l'enregistrement vidéo.
Le numérique et l'ordinateur constituent un nouveau dispositif de copie, adapté, comme le succès du CD audio l’a montré, à tous les usages dans lesquels le critère de fidélité prédomine.
Cette technique de copie a deux particularités : son caractère universel, d'où l'idée de multimédia et la séparation entre une certaine fidélité de la copie, et la richesse du traitement possible. Par exemple, un texte numérisé en mode image ressemble plus à son original mais son utilisation est plus restreinte.
Rapprocher
Le support est générique, le codage numérique est à la base de toute la technique de copie informatique, tout peut être capté et figuré.
Il n'en faut pas beaucoup plus pour que l'ordinateur, abruptement défini comme médium, devienne le seul médium multimédia (il prend tout) et même unimédia (il prend tout en l'unifiant). C'est un peu exagéré et on rendra mieux hommage à l'innovation en ne la simplifiant pas.
Il serait curieux que l'humanité ait attendu l'informatique pour disposer de techniques associant, avec ou sans support, les textes,les images et les sons. Les exercices de Loyola combinent les préludes et colloques, qui mobilisent les images, et les méditations à partir des textes des prières. Les arts de la mémoire, analysés par Frances Yates et Paolo Rossi, associent images, caractères et vers.
Au XXe siècle, les exemples de collage, d'emprunt et de rapprochements abondent. François Albera rend compte d'une démarche moderniste du cinéma se rapprochant des arts plastiques : Koulechov utilise pour l'écran l'espace-grille de Mondrian et Malevitch ; Eisenstein produit avec « Montage des attractions » l'équivalent du collage en peinture. Plus généralement, le cinéma s'impose ici comme modèle d'un art disposant d'une technique d'association des images et du son (et du texte sous les deux formes).
En réalité, la circulation des données, des savoir-faire, et des styles, s'effectue non seulement dans les hauteurs, entre différents systèmes artistiques, mais aussi au rez-de-chaussée, entre médias et secteurs industriels. La télévision emprunte à l' imprimé ses mises en pages graphiques. Les jeux vidéo récupèrent dans les dessins animés le modèle de la poursuite de gauche à droite. La typographie foisonnante est utilisée dans la presse et sur le Minitel.
Les images et autres composantes du multimédia ne sont des données que du point de vue de l'informatique. Elles sont d'abord instituées comme films de cinéma, émissions de télévision, peintures, ouvrages de littérature... Comme telles, elles intègrent une certaine relation a priori- avant l'informatique - entre textes, images et sons.
La transmission informatique des sources nécessite que ces composantes soient situées en fonction de leur environnement d'origine, et que leur association soit harmonieuse. La succession de copies électroniques de pages ne constitue pas un livre électronique. Un reportage diffusé au cours d'un journal télévisé change de signification si son encadrement dans le journal est méconnu (un tel déplacement de point de vue peut évidemment être consciemment recherché).
Quant à la symbolique des associations, la ponctuation multimédia, elle est loin d'être simple puisqu'elle résume l'unité globale de ce qui est représenté. En particulier, l'utilisateur risque de se lasser rapidement des bouches, trombones, épingles, cornes de brume, post-it et autres icônes qui prolifèrent en ce moment pour figurer le passage du texte à l'image, de l'image au son...
Il reste possible de restreindre le champ des utilisations à une gamme d'applications bien connues, neutres, indifférentes à la connaissance de la séquence de films comme objet de cinéma, de la page comme partie du livre.
L'utilisation fréquente du mot document par les sociétés informatiques correspond à cette tendance. Transformée en document, l'image-source s'appauvrit ; elle devient plus manipulable et moins lisible.
La limitation du dispositif à la seule fidélité apparente, ou à des fonctions qui méconnaissent les sources, ne restreint pas seulement la lisibilité. Elle est aussi inconséquente avec la technologie elle-même.
Une image d'ordinateur multimédia est tout à la fois : une composition de pixels (2D) ou de voxels (3D), une figure organisée par le cinéma, la peinture, la télévision, un ensemble de données modélisées par le programme de l'ordinateur.
Au premier titre, elle est plus ou moins fidèle, et récupérable comme document. Elle est plus ou moins connue comme source, lisible, interprétable. Enfin, l'informatisation du médium caractérise et organise l'ensemble des traitements.
Intégrer
Je reprendrai ici une distinction opérée par Jacques Virbel à propos du livre électronique.
Un livre électronique sera : (...)
- Un livre (pré-existant sous forme traditionnelle) transposé sur un support électronique, ou encore, suivant une certaine proportion, un objet qui soit à ce qu'est le livre (dans l'univers de l'impression sur papier), son équivalent ou contrepartie (dans l'univers de la numérisation sur support électronique). (...) Le livre électronique est (...) En même temps et tour à tour :
- un substitut commode naturel du texte en ce qu'il consiste en une transposition de support, comparable en cela à la photocopie ou à la microforme,
- mais aussi un substitut artificiel du texte, comparable à de multiples formes de représentation des textes, constituées de manière spécifique pour supporter des opérations d'analyse et d'interprétation de nature cognitive à propos ou à partir du texte. (...)
La distinction opérée par Virbel peut être appliquée au multimédia en général. Le multimédia électronique sera :
- un film de cinéma, une émission de télévision, une collection de photographies, un livre imprimé (pré-existant sous leur forme traditionnelle) transposés sur un même support électronique
- ou bien encore un objet qui soit au film, à l'émission, au livre (dans leur univers technique propre), leur équivalent ou leur contrepartie dans l'univers de la numérisation sur support électronique.
Ainsi, on mesure mieux le travail.
L'association de l'informatique et du multimédia s'effectue selon deux directions (en même temps et tour à tour).
La première direction se constitue autour de l'analyse informatique de l'expertise et du savoir-faire concernant les sources : ce qui peut être connu de l'activité des producteurs et des commentateurs. L'informatique est plus ou moins savante. Elle en sait plus sur le livre que sur l'image, et, s'agissant du livre, plus sur sa production matérielle que sur le texte lui-même. Mais la tendance globale est avérée. Elle repose sur une règle très simple : chaque fois qu'une activité donnée s'appuie sur l'informatique, l'utilisation future du résultat de cette activité pourra s'appuyer sur l'informatique. La production informatisée des livres a préparé le livre électronique. L'utilisation de l'électronique dans le montage virtuel prépare une certaine lecture électronique de l'audiovisuel.
Si la première tendance rejoint la capacité de l'informatique à répondre aux besoins extérieurs, la deuxième est endogène et spécifique. L'informatique a sa technique de figuration : le codage numérique, la modélisation ; elle améliore sa connaissance de l'image pour résoudre des questions qui ne se posent que dans son univers technique, les besoins de la compression, par exemple ; elle produit des images et des systèmes d'images inédits : les nouvelles images, le virtuel.
Ces deux tendances fusionnent couramment. Ainsi, les techniques de compression des images animées peuvent s'appuyer sur les analyses de découpage en plans, de la même manière que les logiciels de reconnaissance des caractères s'appuient sur des dictionnaires électroniques.
L'informatisation du multimédia apparaît toujours comme un compromis : le dispositif est plus ou moins proche de l'original, la richesse fonctionnelle est plus ou moins grande. Depuis que l'ordinateur personnel dispose de ressources en stockage et traitement suffisants, la question se pose à tous, producteurs et utilisateurs : plus ou moins d'informatique ; se contenter du clou, d'un substitut commode du support, rapprocher des données hétérogènes et faciliter la manipulation ; ou rechercher la clé, l'art et la méthode, fusionner ce qu'on peut savoir de l'existant avec ce qui est vraiment spécifique de l'informatique.
Simulations
Dans cette perspective, la question d'une lecture informatique des documents audiovisuels ne devrait pas être séparée de celle, plus large, des conditions d'existence du multimédia informatique, et même de l'ordinateur comme médium. Elle doit, à la fois, formaliser les pratiques actuelles de réalisation et de travail sur les images, mesurer le point de vue propre à l'informatique, se rattacher à une méthode plus globale.
Sans avoir le début d'une réponse à toutes ces questions (car les réponses à ce genre de questions ne sont pas de papier), je propose de prendre comme point de départ l'idée de simulation.
Il s'agit d'abord de simuler une qualification. Nous ne connaissons pas de descriptif univoque et exhaustif des habitudes d'un acteur qui serait l'utilisateur-type des enregistrements audiovisuels.
Une analyse fonctionnelle, c'est-à-dire une sorte d'encyclopédie des différentes approches est concevable : les connaissances et les habitudes pertinentes seront progressivement analysées et proposées sous la forme d'un atelier logiciel. On distinguera les professionnels des scientifiques ; au sein des scientifiques, les spécialistes du médium et les autres ; les approches purement documentaires...
La difficulté réside dans le fait que l'automatisation d'une procédure issue d'un champ, d'une discipline donnée ne garantit pas qu'elle soit transmissible par le dispositif hors du contexte humain.
L'utilisateur doit donc simuler une qualification, choisir et faire tourner les opérations qui lui correspondent. On a ici l'équivalent du mode, dans beaucoup de systèmes informatiques, notamment en recherche documentaire, du rôle dans les systèmes virtuels, du personnage dans les jeux vidéo.
Pour les images comme pour le texte, une des propositions les plus intéressantes est celle d'une homothétie entre la production et l'usage. Simuler, ici, c'est arrêter, comparer, choisir, découper, en utilisant les outils qualifiés par les réalisateurs. Une telle orientation semble solide industriellement : on bénéficiera toujours des avances en amont. Elle permet surtout d'opter pour des procédures techniques connues, plus que pour des choix fonctionnels individuels.
La deuxième simulation est celle d'une position individuelle, d'une intention auxquelles se rattache l'image, souvent utilisée, de parcours.
L'envergure du matériel iconographique et autre, la diversité des qualifications favorisent des traitements et produisent des résultats innombrables. Trop d'images, trop de choix, trop d'action, on se perd.
Les outils d'annotation et de structuration sont particulièrement utiles ici pour permettre un balisage du parcours. L'annotation différencie un segment, pose le jalon, ouvre ou non sur un lien avec une autre image, un commentaire textuel, etc. La structuration individuelle permet de découper l'enregistrement en blocs sur lesquels un traitement particulier sera réalisé.
Ces balises, ces indices, ces traces caractérisent l'économie individuelle de la consultation, la différenciation des traitements.
D'ailleurs, la technique de consultation rejoint la technologie générale. L'individualisation du parcours correspond à l'appropriation, trait distinctif de l'objet ordinateur personnel.
Troisième simulation : celle de la figuration de la matérialité numérique.
La matière numérique est hétérogène du seul fait de l'origine multiple des sources. Comme il a déjà été dit, une difficulté technique consistante tient à l'organisation du passage d'une représentation caractéristique d'un medium, à une autre représentation propre à un autre medium : par exemple, du livre au cinéma (cas des journaux multimédias ; ou de la mise en rapport du texte- scénario et du film). Techniquement, il ne s'agit peut-être que de poser des boutons et de créer des liens. Mais la production d'une symbolique des liens efficace ne va pas de soi
En attendant qu'elle soit stabilisée, on puise dans des nomenclatures elles-mêmes hétérogènes : signes d’établissement des textes, ponctuation, signes de correction typographiques, marques de montage, icônes de la bureautique, etc.
La matière électronique n'est pas seulement hétérogène. Elle est évolutive, dynamique. Elle est disposée au traitement : les états différents des images, des textes, les versions et statuts des diverses représentations se succèdent comme autant de couches virtuelles.
Tenter une opération pour voir : la simulation réside ici dans cette attitude d'essai, d'expérimentation que Dubuffet a si précisément analysée dans ses écrits techniques ;
le montage virtuel est une autre pratique de référence.
La simulation consiste à faire comme si les différentes strates de matérialité, si nettement hétérogènes et instables, constituaient un seul et même ensemble de plans discrets qui aurait sa propre cohérence.
Reste enfin la redoutable question de l'adaptation à la lecture électronique des images, de l'interface homme-machine, c'est-à-dire du style de représentation à l'écran des différentes activités de simulation. L'interface graphique, la plus répandue sur les ordinateurs, est de conception déjà ancienne. Elle s'associe assez bien avec la métaphore du bureau. Sauf à traiter les images seulement comme des documents, elle correspond mal au travail sur l'image animée.
Les interfaces vidéo sont instables, bousculées par la représentation en trois dimensions, et le virtuel. L'interface doit convenir aux fonctionnalités et au sens profond de la technologie ; elle n'en dérive pas mécaniquement, ce qui pousse à la modestie.
Rédigé à 11:42 dans Publications | Lien permanent | TrackBack
06/13/2004
la fatalité fictionnelle
LA FATALITE FICTIONNELLE
( Ce texte a été publié dans un numéro spécial de Art Press, « Un second siècle pour le cinéma », hors série n°14, 1993. J’avais proposé un titre –assez plat, il est vrai : la destinée numérique du cinéma. Dominique Paini, coordinateur du numéro, a choisi celui-ci, beaucoup plus chic, mais que je ne comprends pas plus qu’il y a dix ans.)
Les nouvelles images sont toujours magiques. Un lapin de dessin animé se promène dans un « vrai » film. Une chimère en 3D rivalise avec Terminator. Durant la guerre du Golfe, les spectateurs furent télé-embarqués aux côtés des pilotes de bombardiers, eux-mêmes en situation de simulation-action quasi médiumnique. Téléprésence, réalité virtuelle, encore la magie.
Trithème, maître d’Agrippa et de Giordano Bruno, publia sa Stéganographie en 1601. Dans cet ouvrage d’inspiration cabalistique, il invente un réseau télépathique universel : manipulation d’images-talisman, relais par anges-satellites, théorie du signal numérologique, architecture du réseau astrologique. Le village cabalistiquement global de Trithème n’est pas seulement une anticipation assez juste : en vrai spécialiste, Trithème indique que la magie est celle du code. C’est le codage numérique qui se trouve derrière les énormes puissances de stockage, de production, de transmission de données, ainsi que derrière leurs effets, de la simple reproduction au virtuel, en passant par les nouvelles images.
Dans la recherche d’une automatisation de la production d’images, dont le cinéma est un chapitre, la numérisation s’avère l’aboutissement de la démarche analytique cherchant à atomiser l’image, à la décomposer jusqu’à son plus simple élément. Edmond Couchot en retrace quelques étapes : décomposition de l’image en lignes pour la transmission (pantélégraphe de Caselli, 1856), divisionnisme et pointillisme, trame en photogravure pour la reproduction, tube cathodique et écran de télévision. Le mariage de l’ordinateur et de la télévision fait basculer la production d’images de l’automatisation analogique à l’automatisation numérique.
Le numérique est universel.
Les documents de toutes origines peuvent être digitalisés : texte, enregistrements sonores, images fixes, images animées. Des données saisies sur le vif peuvent être aussi déposées dans la mémoire de l’ordinateur par l’intermédiaire des périphériques ; le clavier et l’ardoise, le micro et la caméra numérique.
La notion plutôt vague de multi-média rend compte de cette hétérogénéité des données de la matière numérique. Peu ou prou, à la différence de leurs référents analogiques, ces données sont produites par des modèles, c’est-à-dire que leur puissance de figuration repose sur une construction programmée. La matière numérique peut être plus ou moins élaborée, travaillée par l’informatique. Et la profondeur du travail informatique est sans rapport avec la ressemblance : avec la numérisation, la ressemblance va en quelque sorte de soi. L’ordinateur peut ne mémoriser que le nombre de points ou de pixels, leur disposition, couleur et luminosité. Mais il peut aussi situer le vocabulaire du texte numérisé dans un lexique plus large, identifier les fautes d’orthographe, analyser la grammaire, repérer automatiquement le genre ou les figures de style… ; il peut décomposer le film plan par plan, reconnaître les formes correspondant à tel ou tel personnage, proposer des interventions sur l’image.
Le composé numérique associe un principe d’extension très large de ce qui est saisi, et un principe de profondeur variable de la programmation, du modèle. Un des premiers plans d’ Histoire(s) du cinéma montre Godard, devant une bibliothèque, rédigeant cette histoire sur une machine à écrire électronique. Il dicte ; on voit le micro. Il saisit ; on voit le clavier, mais pas l’écran de la machine. Le bruit de l’imprimante amène le plan suivant : une machine de montage en fonctionnement. Le son des octets, du numérique, indexe l’image analogique en mouvement. Ces deux plans emblématisent la question du code numérique et du cinéma.
Tout est captable.
L’ordinateur est une machine à lire, à voir, à écouter. Le rapprochement du texte, de l’image et du son, peut, tout en tirant parti du support de numérisation, rester dans le cadre du cinéma. L’informatique peut aussi inventer sa propre ponctuation, une technologie différente des liens entre données d’origines diverses. C’est ce que ne prouvent pas les actuels « hyper médias ».
Il y a une tension entre « tout est captable » et « seul le modélisable peut être figuré », entre le caractère générique du support et le caractère spécifique du traitement du code. Les images numériques ne sont des documents que du point de vue de l’informatique : elles sont d’abord peintures, films, illustrations d’ouvrages, photographies, etc. Leur rapprochement sur un même plan (au sens courant de la géométrie) – sachant par ailleurs que la circulation d’images d’un art ou d’un médium à un autre n’a pas attendu l’informatique – participe d’une position esthétique ou politique : est-ce du cinéma ? Est-ce encore du cinéma ? Sinon quoi ?
Plus décisive que la présence ou non de nouvelles images, qui peuvent n’être elles-mêmes que des documents pour un cinéma techniquement immobile – c’est la prise de parti plus ou moins affirmée pour le programme et le code qui compte ; au-delà, l’idée plus ou moins acceptée d’un nouveau médium. L’importance n’est pas l’existence de films numériques, mais la destinée numérique du cinéma.
Les tentatives pour créer des films numériques à l’aide de l’ordinateur sont déjà anciennes. Le premier du genre – un dessin animé produit par la Nasa – fut réalisé par E.E. Zajac, des laboratoires Bell, en 1963. Un film d’animation numérique, Hunger, de Peter Foldes, fut primé à Cannes en 1974. A partir des années quatre-vingt, les progrès de l’infographie et de l’image de synthèse favorisent l’insertion d’effets spéciaux produits informatiquement dans les films et dessins animés (Alien, Tron, Roger Rabbit). Avec Wahrman (Startrek, Robocop), et surtout l’industrial Light and Magic de George Lucas (Total recall, Terminator 2), une structure industrielle fédérant l’informatique et le cinéma se met en place. Elle utilise les nouveaux dispositifs de trucage numérique à haute résolution comme le Cinéon de Kodak. Rendez-vous à Montréal (Thalman et Magnenat, 1987) constitue le premier essai pour créer des personnages synthétiques ; Marilyn Monroe et Humphrey Bogart s’animent ainsi durant sept minutes.
Un cinéaste français, Didier Pourcel, prépare une adaptation de Vingt mille lieues sous les mers entièrement réalisée par ordinateur. Le rôle du capitaine Nemo est interprété par Richard Bohringer, du moins son clone numérique.
La publicité et la télévision sont aussi grandes consommatrices d’effets spéciaux : Racoon (1992) réalisé par Renault et l’Ina, ainsi que le générique d’Arte, conçu par Mac Guff Line en sont des exemples. Tous ces films numériques forment l’héritage du Méliès de L’homme à la tête de caoutchouc.
Ce rapprochement entre informatique et cinéma s’explique facilement : les nouvelles images coûtent cher ; elles ne s’amortissent qu’à produire des formes toujours renouvelées, toujours plus spectaculaires d’illusion, de magie. Bon ou mauvais, c’est du cinéma, de même qu’un livre composé et illustré par ordinateur reste un livre.
Au contraire, l’imagerie virtuelle apparaît comme radicalement extérieure au cinéma. Elle repose sur la synthèse d’images tridimensionnelles en temps réel, et sur la visualisation stéréoscopique.
La notion de temps réel – c’est-à-dire d’images a volonté produite à la fois par le programme et le participant – et la dimension physique de la participation indique déjà l’essentiel de la différence avec le cinéma. Créer un monde virtuel, c’est d’abord créer un espace en trois dimensions, comme l’illustrent les créations de Jeffrey Shaw (The legible city ou le Musée virtuel), l’Abbaye de Cluny et le Polyworld présentés à Imagina 93. Ce n’est pas l’image-mouvement, mais les représentations de l’espace issues de l’architecture, de l’urbanisme, des sciences qui constituent le référent des images virtuelles.
Enfin, pour des raisons qui n’ont probablement rien de technique, l’imagerie virtuelle, ne compose pas avec les autres images. Traitant directement avec l’imaginaire, elle ne partage en rien l’universalisme du numérique. Elle ne cite pas, ne recycle pas, elle fuit l’hybridation ; elle est nombre, code, programme et langage.
Dans les années quatre-vingt-dix, toutes ces capacités de production se retrouvent sur l’ordinateur personnel, chargé de rassembler sur un même support des données aussi hétérogènes. Pour saisir ce qu’est un ordinateur multi-média le plus simple est de se représenter une télévision par câble dotée de toutes les ressources de l’informatique. L’utilisateur peut sélectionner, enregistrer, comparer, analyser, monter, saisir, commenter, etc.
Les réalisations multi-média restent pour l’instant, marquées par l’orientation graphique ; il s’agit d’encyclopédies audio-visuelles, de journaux multi-média, de livres d’images animées comme le dialogue Hitchcock-Truffaut, illustré de séquences, réalisé par le Massachusetts Institute of Technology. Surtout, la réunion informatique du texte, de l’image et du son – rendue possible par le support numérique – reste à inventer comme forme technologique et culturelle : on est loin ici de l’utilisation des « nouvelles techniques » pour produire de « nouvelles images ».
Les commentateurs se divisent d’ailleurs sur la définition de l’ordinateur comme nouveau médium. La numérisation ne fournit que l’équivalent du papier ou du film : le support. Pour qu’un nouveau médium se stabilise, il faut encore inventer et imposer des règles de présentation, de ponctuation (passage du texte à l’image, etc.), d’annotation et de structuration (pour préparer les traitements informatiques) Puisqu’il faudra se faire comprendre, on peut prévoir, sans grand risque, que ces règles seront à la fois héritées – du cinéma, de l’imprimé, et inédites, c'est-à-dire créées par l’informatique.
Cette tendance à prendre le cinéma comme modèle se traduit, par exemple, par le passage de « l’interface utilisateur graphique » (G.U.I.) à l’interface utilisateur vidéo » (V.U.I.). Nelson, l’inventeur de l’hypertexte, préconise l’abandon des interfaces actuelles, hétéroclites et « bricolées », et de se mettre à l’école du cinéma. Le Japonais Tani (Hitachi), à travers la notion de « vidéo orientée objet », qui n’est peut-être qu’un jeu de mots, rassemble les langages récents des programmateurs et l’utilisation des données vidéo pour le travail de groupe.
Aussi vagues soient-elles, les notions de « multi-média », d’ « hyper-média » fournissent un cadre opératoire pour l’échange de savoir-faire entre informatique et cinéma. Cet échange est effectif dans l’industrie (Apple et Lucas film), et, jusqu’à un certain point, dans les institutions ad hoc. Au M.I.T, c’est plus le cas du Média Lab que du Center for advanced visual studies. Le Centre Arts et medias de Karlsruhe-ZKM mène le même type de recherche « hybride ». Les informaticiens promoteurs du nouveau médium qui tentent de s’inspirer du langage cinématographique, redoublent en quelque sorte la disposition d’un certain cinéma enclin à considérer l’œuvre musicale, littéraire, ou picturale comme matière, prétexte, où modèle agonistique.
Dans un entretien de 1983, Jean-Luc Godard disait ; « Ce que je voudrais, c’est que les gens de chez I.B.M., je puisse leur dire : voilà, j’ai un bouquin de Françoise Dolto sur la religion et la psychanalyse, j’ai deux personnages, Joseph et Marie, trois cantates de Bach, un bouquin de Heidegger. Faites moi un programme qui m’arrange tout cela. Mais ils ne le peuvent pas, et moi il faudrait que je le fasse moi-même et je n’ai pas envie d’y passer vingt ans ! »
Je ne connais pas pour le cinéma de déclaration équivalente à celles des optimistes de l’hypertexte (Bolter, Landow) pour la littérature et l’imprimé : le numérique représente pour eux une génération technologique de textes qui résume, ou réalise les tendances contemporaines de l’écriture.
On a plus de difficultés à passer de la similitude à la simulation.
La simulation fait partie du régime de visibilité de la figuration numérique. La matière numérique est disposée au traitement et le présenter sous l’enveloppe d’un « audio-visuel classique » est une sorte d’hérésie. La réception active donne forme à la figuration. On considère généralement que le principe de cette réception réside dans l’attitude de simulation. Simuler, c’est « faire comme si ». Les jeux vidéo simulateurs de vol, les mondes virtuels ont fait connaître ce type de réception.
La simulation est nulle dans le spectacle traditionnel – avec ou sans effets spéciaux -, intense avec le virtuel et présente à chaque fois que le traitement des données, des images s’appuie sur un programme.
L’outillage de la simulation va du plus simple (la suite d’instructions fonctionnelles transmises à l’ordinateur) au plus surprenant (les prothèses du virtuel). Dans ce dernier cas, l’utilisateur est immergé dans l’espace de synthèse à la fois par la visualisation stéréoscopique et des capteurs de position placés sur le corps. L’audiovisuel se combine au mouvement ; les images se transforment au gré de l’intervention du spectateur.
L’envergure de la simulation dépend de la matière numérisée (les données proposées au traitement) et surtout de la possibilité pour l’utilisateur de maîtriser le programme, et remonter de l’image au modèle qui l’a produite.
L’exemple de l’analyse et de la reconnaissance numérique d’un personnage de film illustre comment la même technique peut être à l’origine de simulations extrêmement variées. Dans tous les cas, il faudra analyser un visage réel (Bohringer) ou un document image de ce visage (Bogart) et construire le modèle numérique qui générera la figuration, c’est-à-dire toutes les images en trois dimensions nécessaires.
S’il s’agit d’un film numérique de spectacle la simulation se cantonne à a production ; effet spécial joue sur la vraisemblance.
Si le film est consulté sur un ordinateur multimédia, de nombreux traitements faisant appel à la simulation peuvent être employés. Un index-acteurs peut être créé automatiquement ; il permettra de sélectionner les extraits où figure l’acteur ; l’utilisateur peut élargir sa recherche à d’autres films et simuler une anthologie filmique, utilisable, par exemple dans une école de comédiens. D’autres simulations peuvent être plus tendancieuses : la personnalité numérique est susceptible de toutes sortes d’avatars. Elle ne bénéficie d’aucune protection technique : les traits, la voix peuvent être modifiés. Dans cet ordre d’idées, circulent déjà des horreurs qui font, par anticipation, le régal des juristes.
Transporté dans un espace virtuel, le clone numérique de l’acteur peut entrer en relations, selon des règles programmées (des « scripts ») avec d’autres personnages. L’utilisateur peut lui-meme être enrôlé dans cette communauté virtuelle. Ses interventions gestuelles sont comprises des autres agents. Pour autant que le script l’ait prévu, il peut serrer la main de l’acteur, s’asseoir à la même table, et s’exercer au bras de fer avec lui.
Comme les personnages, tous les composants matériellement identifiables, et numériquement analysables des films peuvent être l’objet de traitement variés : le son, la luminosité, la colorimétrie, les plans, le montage… La simulation s’applique aux usages les plus courants comme les plus spectaculaires. Elle ne tient pas à un goût particulier des nouvelles techniques pour l’expérimentation et la prouesse. Elle est le mode de réception des images techniquement logique.
Même dans les interventions les plus simples, la simulation est possible et souvent nécessaire.
L’informatique ne crée pas seulement des situations nouvelles ; se saisissant des savoir-faire d’autres technologies, elle tend à les redistribuer dans la réception. L’exemple de l’imprimé est significatif. Comme technique de communication, elle propose de l’homothétie entre production et réception. Elle semble dire : tu pourras lire le livre, et voir le film en recomposant leur fabrication. Comme cette fabrication est une affaire à peu près illimitée, du plus « matériel » au plus « sémantique » les fonctionnalités de simulation sont innombrables, et souvent indécidables.
Parfois, l’intervention du spectateur s’impose. Les opérations de base de la consultation (pour voir, entendre, lire) nécessitent la reprise des procédures de modélisation. Que le programme se résume au simple curseur structurant le film pour préparer les traitements à venir, ou qu’il permette de produire des « communautés » et des « espaces » virtuels, les images n’existent que du fait de la participation technique du spectateur. La simulation n’est pas seulement une interface ; elle est une composante de la technologie.
Accepter le modèle de la simulation ; c’est jouer le code. Au cinéaste d’inventer non seulement les images, mais des cheminements entre les modèles et les différentes images, des ponts entre le cinéma et les autres images (peinture, photo), entre son art et la programmation.
S’arrêter sur l’image, sans s’arrêter aux images : voir.
Philippe Queau écrit : « Il ne faut point s’arrêter aux images. Les modèles sont nécessairement multiples et mobiles. Ils doivent être déliés de leurs nœuds internes pour être pleinement compris ».
Il est tentant, dans cette situation, de mettre en parallèle la perte d’aura de l’œuvre visuelle, et la perspective de recomposition d’un public critique. Voir un film serait toujours apprendre à voir un film et cela, sans disposition éthique ou esthétique, mais par l’effet nécessaire de la technologie. On a le droit aussi de craindre la fusion de Marioland et d’Hollywood et que l’effet spécial soit le seul numéro de la magie du code.
Rédigé à 17:14 dans Publications | Lien permanent | TrackBack
06/12/2004
Culture et éducation:l'invention d'un medium
CULTURE ET ÉDUCATION : L’INVENTION D’UN MÉDIUM ?
(Ce texte, rédigé en 1991, a été publié une première fois dans « La France à l’exposition universelle. Séville 1992 », Flammarion, avril 1992.
L’ouvrage, dirigé par Régis Debray, comprenait notamment un texte de Bernard Stiegler.
Ce texte d’information, destiné à « un large public » correspond à la période de conception du Poste de lecture assistée par l’ordinateur, à la Bibliothèque de France, projet sur lequel nous avions commencé à travailler depuis plus d’un an, et qui était sommairement présenté dans le catalogue de Séville 92.
J’ai corrigé les erreurs d’édition, notamment les trois phrases de la fin, qui avaient été interpolées.)
Des révolutions techniques n’éclatent pas tous les dix ans. Et celles qui façonnent l’enseignement, la culture, le travail de l’esprit sont encore plus rares. Des différents changements d’ordre technique qui interviennent dans le secteur de l’enseignement et de la culture, le plus important concerne les supports de la connaissance. Il touche le texte mais aussi l’image et les enregistrements sonores, l’écriture et la lecture.
Le premier acte se joue dans l’imprimerie
L’imprimerie du XXe siècle s’est industrialisée, mais ses techniques de base sont restées longtemps celles des siècles précédents. Même si la reproduction par offset – proche dans son principe de la lithographie – et la généralisation de la photogravure ont constitué d’important progrès, le texte, pour l’essentiel, reste d’abord composé au plomb, et les différentes opérations de mise en page sont manuelles. La photocomposition, composition « par la lumière », est inventée après la guerre, et se développe dans les années 60.
C’est elle qui introduit l’informatique dans l’imprimerie.
En moins d’une vingtaine d’années, l’informatique va se révéler capable de tenir tous les rôles de la chaîne de fabrication du livre. Les clavistes succèdent aux typographes ; la saisie se fait « au kilomètre » et elle est séparée de la formation des caractères, d’abord photographique. Puis, l’ensemble des opérations de mise en forme du texte sont réalisées par des programmes d’ordinateur : c’est la composition programmée. A partir des photocomposeurs de « troisième génération », les caractères ne sont plus stockés sur une matrice matérielle, mais inscrits sous une forme numérique et produits par l’ordinateur lui-même à l’aide de techniques diverses (tube cathodique, laser, diodes). Les scanners permettent d’introduire dans le dispositif des copies de textes ou d’images manipulables par les ordinateurs, comme sur une table de montage. Associés avec les logiciels de reconnaissance optique de caractères, ils deviennent des instruments de saisie du texte, se substituant au clavier.
La totalité de la chaîne est donc informatisée. Dans ce secteur, à la différence de beaucoup d’autres, les ordinateurs sont des outils de production ; l’informatique ne se contente pas de mettre en forme des instructions, elle les réalise. D’autre part, la programmation des opérations typographiques a imposé aux informaticiens de résoudre un grand nombre de questions techniques particulières et complexes. Par exemple, le respect d’une largeur de ligne donnée – la justification – nécessite la coupure des mots en fin de ligne ; cette coupure obéit à des règles, orthographiques et typographiques, que l’ordinateur doit connaître. Le savoir – faire typographique correspond à un équilibre difficile entre les caractéristiques de la langue, l’efficacité graphique et la contrainte technique.
Paradoxalement, cette transformation technique fondamentale semble n’avoir eu aucune conséquence culturelle importante. Au XIXe siècle, l’industrialisation de la typographie avait été fort attaquée. Les critiques de la photocomposition programmée se sont exprimées puis évanouies de la même manière, faute d’objet. L’apparence était celle de la continuité ; le livre n’avait pas changé ; en général, les lecteurs ne percevaient pas les transformations.
Les banques de données
La seconde modification notable est celle qui va conduire à l’avènement du document électronique, c’est-à-dire d’un ensemble de textes, d’images et de sons produits informatiquement et diffusés sur un support électronique. A la différence de l’informatique dans l’imprimerie, ces techniques et ces produits ont cherché dès le début à atteindre l’usager ; leurs promoteurs ont même parfois préjugé de leur force à entraîner des modifications sensibles de comportement culturel.
Au début des années 70, l’inflation documentaire est telle qu’il s’avère impossible, même pour les spécialistes, de suivre tout ce qui paraît sur un sujet donné. Les banques de données documentaires sont la réponse appropriée. Avantage sensible : l’utilisateur n'a pas à connaître l’existence d’un document pour le retrouver dans la banque de données. En effet, les documents sont indexés, c’est-à-dire décrits avec des mots qui figurent dans une liste spéciale : le thésaurus. L’utilisateur, en combinant ces mots, peut trouver le document qu’il recherche. Par exemple, en demandant « informatique » et « exposition universelle », notre lecteur devrait trouver, avec quelques autres, le signalement du livre qu’il est en train de lire.
L’informatique documentaire se développe rapidement dans le secteur de la recherche scientifique, des statistiques, de l’archivage juridique. Progressivement les bibliothèques informatisent leurs catalogues. Cependant, quinze ans après ses débuts, cette technique ne tient pas tout à fait ses promesses. Le prix de l’information a été sous-estimé, la solvabilité de l’utilisateur surestimée. Les techniciens ont probablement simplifié à l’extrême la recherche d’information dans l’ordre culturel et scientifique : le chercheur n’accède pas à une référence scientifique de la même manière que l’automobiliste en panne trouve l’adresse d’un garagiste.
Les banques de données qui résistent et se développent sont celles qui constituent un passage obligé pour l’accès à l’information, soit en raison de leur taille (Medline ou Chemical Abstracts), soit en raison de leur spécialisation (l’Institut national de la propriété industrielle en France, l’Office européen des brevets).
Cependant, l’étape de l’informatique documentaire a permis aux informaticien qui, à la même époque, recherchaient les voies de la traction automatique, de se rapprocher de la linguistique. Après avoir appris à manier l’information sur le texte, ils ont commencé à analyser le texte lui-même. Du langage documentaire – langage spécialisé qu’il est nécessaire de connaître pour interroger valablement la banque de donnée – ils ont tenté de passer au langage naturel.
Ainsi l’utilisateur a fait sa première expérience de lecture électronique. Et elle n’a pas été probante. Finalement, que sont les banques de données documentaires sinon des catalogues, des bibliographies, des annuaires qu’on lit à l’aide d’un écran et d’un clavier ? Leur insuccès relatif est probablement dû à leur environnement technique : des terminaux passifs, dont les écrans semblent surchargés de bordereaux indigestes. Ces livres électroniques ne pouvaient passer pour des livres, car ils ne permettaient pas l’appropriation par le lecteur. La méthode de recherche lui était imposée ; elle avait été conçue par un autre, anonyme, et il lui était difficile de l’apprendre. Quant aux données d’information, elles semblaient illimitées, démesurées : comment s’approprier ce qui ne se termine pas ?
Enfin, les banques de données se sont rapprochées rapidement des techniques de l’édition électronique. L’informatique documentaire a semblé d’abord limitée à « l’information sur l’information » ; elle recensait, analysait, orientait, mais le lecteur devait
recourir aux librairies, bibliothèques, centres de documentation pour accéder aux textes originaux. Mais si ces textes eux-mêmes peuvent être édités et stockés sous une forme électronique, c’est l’ensemble des liens entre l’informatique documentaire et la gestion électronique des documents qui doit être réexaminé.
L’édition électronique
Le développement de l’édition électronique doit fort peu à la volonté de réorganiser l’activité documentaire. Il est essentiellement la conséquence d’innovations techniques majeures dans le stockage de l’information, lesquelles peuvent être électroniques, magnétiques, optiques. Ces innovations peuvent se résumer simplement : l’ordinateur a trouvé son papier. Elles peuvent se concrétiser sous la forme de disques optiques, de mémoires de masse des ordinateurs, ou des CD-Rom, produits d’édition électronique de la taille des Compact Dis audio. L’essentiel est cette continuité du support. Le stockage par un utilisateur d’une quantité de textes électroniques supérieure à celle des plus belles bibliothèques personnelles est déjà possible ; le prix de vente de la page électronique est comparable à celui de la page imprimée ; l’unité des techniques de stockage permet de recevoir sur le même ordinateur des produits d’édition (Cd-rom), de l’information transmise à distance, des textes que le lecteur aura numérisés.
Un exemple peut illustrer la continuité de la chaîne électronique. Un auteur saisit son texte sur un micro-ordinateur et fournit à l’éditeur la disquette correspondante. L’imprimeur récupère ce manuscrit électronique sur des machines qui transcrivent la disquette pour la rendre acceptable par son propre dispositif de conception. Les indications de mise en page sont intégrées de manière plus au moins automatisée. L’objectif habituel dans ce cas reste le livre imprimé. Mais une base de données peut aussi être alimentée et rendue accessible à distance. Une publication électronique est réalisée et diffusée. Elle atteint plus tard, dans un laboratoire, un centre de documentation, le lecteur qui prendra connaissance du texte à l’écran. Il peut en recopier une partie dans la mémoire de son propre ordinateur, comme citation, texte de référence, qu’il intègre ensuite dans son propre travail.
Avant l’apparition des CD –Rom, l’industrie informatique commercialisait des logiciels, mais, pour l’essentiel, diffusait l’information à travers les réseaux, à partir de serveurs vers des terminaux. Or les coûts de communication sont relativement élevés et proportionnels à la durée, ce qui s’accorde difficilement avec une activité comme la lecture. L’importance de l’édition électronique tient à ce qu’elle restitue le cadre normal du travail intellectuel : la possibilité d’organiser librement son temps pour parcourir rapidement les textes ou, au contraire, se familiariser avec eux, prendre de la distance.
Un répertoire des CD-Rom publié en 1990, recense plus de 2 000 titres : la Pravda, le Grand Robert, le Webster, la Bible, un grand nombre de catalogues et de bases de données. Les lecteurs de CD-Rom sont des périphériques de micro-ordinateurs, qui se normalisent rapidement. Certains CD-Rom sont conçus comme des produits de grande diffusion. Sony propose un lecteur portable de petits CD-Rom appelé "livre électronique ». Plus de 200 titres sont édités en japonais : des dictionnaires, des atlas, des livres pratiques et de littérature.
Pour reprendre la comparaison avec l’imprimerie, on peut considérer que les techniques nouvelles constituent l’équivalent du papier, du caractère mobile et de la presse. On sait composer, diffuser, stocker informatiquement. C’est ici qu’il faut examiner l’évolution des ordinateurs eux-mêmes, et en particulier celle des ordinateurs personnels.
Des machines à voir, à entendre, à lire
Les médias contemporains se caractérisent par l’importance croissance de l’appareillage. Un livre, un tableau, une photographie, un concert sont accessibles directement. Les disques, les films, l’émission de télévision nécessitent des écrans, des appareils de projection ou de lecture. Par définition, les médias informatiques combinent le support – disquette, CD-Rom -, qui comprend l’information codée et la machine, l’ordinateur avec ses logiciels, qui sait traiter cette information et la restituer.
Cette représentation à l’écran, reliée aux fonctions de traitement accessibles à l’utilisateur, correspond à ce que les informaticiens appellent « l’interface homme-machine ». C’est à travers elle que le texte prend forme. Trois évolution concourent à transformer l’ordinateur en machine à voir, à entendre et à lire : l’augmentation de puissance, la personnalisation, le « multimédia ».
L’augmentation de la puissance de l’ordinateur est générale ; elle concerne la mémoire, la possibilité de traiter cette information, les écrans, les imprimantes. L’ordinateur de 1995 sera mille fois plus puissant que celui de 1982. Cette réserve de puissance mettra à la disposition de l’utilisateur des ressources aujourd’hui inconnues, des milliers de textes et d’images, des programmes nombreux, rapides et riches.
Depuis, le début des années 80, grâce aux « PC » (Personal Computers), les utilisateurs se sont familiarisés avec le traitement de texte, puis la publication assistée par ordinateur, c’est-à-dire avec le maniement du texte électronique. Aujourd’hui, la personnalisation présente deux aspects : l’appropriation et la banalisation. L’appropriation signifie que l’utilisateur détermine, de plus en plus individuellement, la nature et l’ordre des opérations qu’effectue la machine. Il programme sans savoir programmer. La banalisation, c’est l’unification, la mise en commun, à travers les différents modèles et marques, des procédures. C’est évidemment une condition de base de l’appropriation.
La personnalisation de l’ordinateur est fondamentale pour son utilisation dans le cadre d’un travail intellectuel. Le lecteur du texte électronique doit pouvoir définir son mode et sa vitesse de lecture. Les traitements de texte eux-mêmes devront redonner au rédacteur une liberté comparable à celle de l’écriture manuelle. Ils mériteront alors la difinition qu’en donne l’écrivain et philosophe italien Umberto Eco : una macchina molto spirituale.
Pour améliorer la lisibilité du texte électronique, quelque chose devra être inventé qui tiendra à la fois de la typographie et de l’interface informatique. Cette innovation sera fortement déterminée par l’émergence du multimédia. L’ordinateur devient un appareil apte à diffuser une émission de télévision, un film, un enregistrement musical, un texte imprimé. Le multimédia repose sur la numérisation qui permet de récupérer et de transformer en une matière acceptable par l’ordinateur des données inscrites dans d’autres supports : une estampe, une photo, un manuscrit, un disque vinyle. D’autres produits sont déjà réalisés sous forme numérique : les disques compact, la photogravure industrielle, les programmes de télévision haute définition numérique. La continuité de la chaîne de documents électroniques se prépare aussi pour les autres médias.
En même temps, l’ordinateur peut être alimenté directement : évidement, avec du texte, saisi au clavier, mais aussi avec de la voix traitée par des logiciels de reconnaissance de la parole, et des images, fixes ou animées, saisies sur le vif par des caméras numériques. On conçoit facilement les pistes ouvertes par ce rapprochement de médias habituellement séparés. Un texte peut être illustré par un reportage ; une thèse sur « Artaud et le théâtre » peut comprendre des séquences dans lesquelles figurent Antonin Artaud et de la musique
Ces combinaisons ne se résument pas à un simple rapprochement de sources diverses ; elles permettent une intervention plus ou mois importante de l’utilisateur. Deux situations extrêmes schématisent cette intervention :
- L’ordinateur se limite à proposer des copies électroniques. L’utilisateur peut lire, écouter, regarder, faire des comparaisons, du montage.
- Toutes les sources ont été analysées informatiquement, codées et traitées par des logiciel spéciaux. L’utilisateur peut faire des recherches sur le langage, analyser des images en isolant des formes, créer ses propres images.
Les possibilités du multimédia commencent seulement à être explorées. Mais on peut d’ores et déjà en imaginer certains effets sur les pratiques et techniques culturelles. Prenons l’exemple de la typographie. Les réalisateurs de multimédias devront inventer de nouveaux signes reconnus par tous. L’équivalent des guillemets ou des tirets permettront d’appeler un enregistrement de voix au milieu d’un texte. Plus généralement, les liens parfois qualifiés d’ « hypertexte » ou d’ « hypermédia » devront avoir une visibilité comparable à celle que la typographie a construite patiemment. Ce changement est suffisamment consistant pour que soit évoquée l’hypothèse d’une nouvelle technologie culturelle.
Une nouvelle technologie culturelle ?
Soit un étudiant en 2010. Il promène dans sa sacoche un ordinateur plat, de la taille d’un manuel, dont il se sert indifféremment pour consulter des ouvrages ou des films électroniques et pour prendre des notes. Il le recharge dans des librairies, des bibliothèques multimédias ou à distance, par l’intermédiaire d’un téléphone sans fil. Sur l’ordinateur familial, qui sert aussi de télévision, il dialogue avec un ami pour préparer un exposé multimédia. L’un et l’autre utilisent les logiciels les plus divers : traducteurs, correcteurs automatique de montage, synthétiseurs de voix, qu’ils choisissent sur un kiosque électronique et télédéchargent sur leur machine.
Cette image d’une pratique future est concevable, parmi d’autres. Certains commentateurs considèrent que l’informatique multimédia entamera la passivité du consommateur audiovisuel, voire qu’elle donnera naissance à une nouvelle écriture idéographique. D’autres prévoient que la combinaison du réseau et de la réalité virtuelle entraînera l’effondrement des murs de l’Université.
On peut aussi bien souligner la lenteur des changements. Il a fallu près d’un demi-siècle pour que l’idée même de l’ordinateur-médium prenne consistance. Le temps de la technique n’est pas strictement linéaire : le plus futuriste n’englobe pas nécessairement le plus répandu. Aujourd’hui, les utilisateurs travaillent sur des machines conçues il y a plus de quinze ans. Les constructeurs préparent pour 1994-1996 les premiers ordinateurs vraiment multimédias. Dans les laboratoires, les chercheurs expérimentent la réalité virtuelle. Il semble imprudent de prédire quand et comment se formera une nouvelle organisation technique. L’invention du médium, la mise en place d’une nouvelle technologie culturelle prendront du temps – et c’est aussi bien. Elles ne pourront pas être réalisées par les seuls informaticiens. Croit-on que les orfèvres qui imaginèrent le caractère mobile ont inventé seuls l’ordre graphique dans lequel nous vivons ?
Il est fort peu probable que le document électronique, multimédia remplace purement
et simplement les supports anciens et éprouvés.
C’est en prenant en compte non seulement les réalités techniques, mais aussi le rapprochement plus fondamental de l’information et des sciences et savoirs du texte, que la Bibliothèque de France a conçu son projet de poste de lecture assisté par ordinateur.
Rédigé à 19:53 dans Publications | Lien permanent | TrackBack