LA FATALITE FICTIONNELLE
( Ce texte a été publié dans un numéro spécial de Art Press, « Un second siècle pour le cinéma », hors série n°14, 1993. J’avais proposé un titre –assez plat, il est vrai : la destinée numérique du cinéma. Dominique Paini, coordinateur du numéro, a préféré "La fatalité fictionnelle", beaucoup plus chic, mais que je ne comprends pas plus qu’il y a dix ans.)
Les nouvelles images sont toujours magiques. Un lapin de dessin animé se promène dans un « vrai » film. Une chimère en 3D rivalise avec Terminator. Durant la guerre du Golfe, les spectateurs furent télé-embarqués aux côtés des pilotes de bombardiers, eux-mêmes en situation de simulation-action quasi médiumnique. Téléprésence, réalité virtuelle, encore la magie.
Trithème, maître d’Agrippa et de Giordano Bruno, publia sa Stéganographie en 1601. Dans cet ouvrage d’inspiration cabalistique, il invente un réseau télépathique universel : manipulation d’images-talisman, relais par anges-satellites, théorie du signal numérologique, architecture du réseau astrologique. Le village cabalistiquement global de Trithème n’est pas seulement une anticipation assez juste : en vrai spécialiste, Trithème indique que la magie est celle du code. C’est le codage numérique qui se trouve derrière les énormes puissances de stockage, de production, de transmission de données, ainsi que derrière leurs effets, de la simple reproduction au virtuel, en passant par les nouvelles images.
Dans la recherche d’une automatisation de la production d’images, dont le cinéma est un chapitre, la numérisation s’avère l’aboutissement de la démarche analytique cherchant à atomiser l’image, à la décomposer jusqu’à son plus simple élément. Edmond Couchot en retrace quelques étapes : décomposition de l’image en lignes pour la transmission (pantélégraphe de Caselli, 1856), divisionnisme et pointillisme, trame en photogravure pour la reproduction, tube cathodique et écran de télévision. Le mariage de l’ordinateur et de la télévision fait basculer la production d’images de l’automatisation analogique à l’automatisation numérique.
Le numérique est universel.
Les documents de toutes origines peuvent être digitalisés : texte, enregistrements sonores, images fixes, images animées. Des données saisies sur le vif peuvent être aussi déposées dans la mémoire de l’ordinateur par l’intermédiaire des périphériques ; le clavier et l’ardoise, le micro et la caméra numérique.
La notion plutôt vague de multi-média rend compte de cette hétérogénéité des données de la matière numérique. Peu ou prou, à la différence de leurs référents analogiques, ces données sont produites par des modèles, c’est-à-dire que leur puissance de figuration repose sur une construction programmée. La matière numérique peut être plus ou moins élaborée, travaillée par l’informatique. Et la profondeur du travail informatique est sans rapport avec la ressemblance : avec la numérisation, la ressemblance va en quelque sorte de soi. L’ordinateur peut ne mémoriser que le nombre de points ou de pixels, leur disposition, couleur et luminosité. Mais il peut aussi situer le vocabulaire du texte numérisé dans un lexique plus large, identifier les fautes d’orthographe, analyser la grammaire, repérer automatiquement le genre ou les figures de style… ; il peut décomposer le film plan par plan, reconnaître les formes correspondant à tel ou tel personnage, proposer des interventions sur l’image.
Le composé numérique associe un principe d’extension très large de ce qui est saisi, et un principe de profondeur variable de la programmation, du modèle. Un des premiers plans d’ Histoire(s) du cinéma montre Godard, devant une bibliothèque, rédigeant cette histoire sur une machine à écrire électronique. Il dicte ; on voit le micro. Il saisit ; on voit le clavier, mais pas l’écran de la machine. Le bruit de l’imprimante amène le plan suivant : une machine de montage en fonctionnement. Le son des octets, du numérique, indexe l’image analogique en mouvement. Ces deux plans emblématisent la question du code numérique et du cinéma.
Tout est captable.
L’ordinateur est une machine à lire, à voir, à écouter. Le rapprochement du texte, de l’image et du son, peut, tout en tirant parti du support de numérisation, rester dans le cadre du cinéma. L’informatique peut aussi inventer sa propre ponctuation, une technologie différente des liens entre données d’origines diverses. C’est ce que ne prouvent pas les actuels « hyper médias ».
Il y a une tension entre « tout est captable » et « seul le modélisable peut être figuré », entre le caractère générique du support et le caractère spécifique du traitement du code. Les images numériques ne sont des documents que du point de vue de l’informatique : elles sont d’abord peintures, films, illustrations d’ouvrages, photographies, etc. Leur rapprochement sur un même plan (au sens courant de la géométrie) – sachant par ailleurs que la circulation d’images d’un art ou d’un médium à un autre n’a pas attendu l’informatique – participe d’une position esthétique ou politique : est-ce du cinéma ? Est-ce encore du cinéma ? Sinon quoi ?
Plus décisive que la présence ou non de nouvelles images, qui peuvent n’être elles-mêmes que des documents pour un cinéma techniquement immobile – c’est la prise de parti plus ou moins affirmée pour le programme et le code qui compte ; au-delà, l’idée plus ou moins acceptée d’un nouveau médium. L’importance n’est pas l’existence de films numériques, mais la destinée numérique du cinéma.
Les tentatives pour créer des films numériques à l’aide de l’ordinateur sont déjà anciennes. Le premier du genre – un dessin animé produit par la Nasa – fut réalisé par E.E. Zajac, des laboratoires Bell, en 1963. Un film d’animation numérique, Hunger, de Peter Foldes, fut primé à Cannes en 1974. A partir des années quatre-vingt, les progrès de l’infographie et de l’image de synthèse favorisent l’insertion d’effets spéciaux produits informatiquement dans les films et dessins animés (Alien, Tron, Roger Rabbit). Avec Wahrman (Startrek, Robocop), et surtout l’industrial Light and Magic de George Lucas (Total recall, Terminator 2), une structure industrielle fédérant l’informatique et le cinéma se met en place. Elle utilise les nouveaux dispositifs de trucage numérique à haute résolution comme le Cinéon de Kodak. Rendez-vous à Montréal (Thalman et Magnenat, 1987) constitue le premier essai pour créer des personnages synthétiques ; Marilyn Monroe et Humphrey Bogart s’animent ainsi durant sept minutes.
Un cinéaste français, Didier Pourcel, prépare une adaptation de Vingt mille lieues sous les mers entièrement réalisée par ordinateur. Le rôle du capitaine Nemo est interprété par Richard Bohringer, du moins son clone numérique.
La publicité et la télévision sont aussi grandes consommatrices d’effets spéciaux : Racoon (1992) réalisé par Renault et l’Ina, ainsi que le générique d’Arte, conçu par Mac Guff Line en sont des exemples. Tous ces films numériques forment l’héritage du Méliès de L’homme à la tête de caoutchouc.
Ce rapprochement entre informatique et cinéma s’explique facilement : les nouvelles images coûtent cher ; elles ne s’amortissent qu’à produire des formes toujours renouvelées, toujours plus spectaculaires d’illusion, de magie. Bon ou mauvais, c’est du cinéma, de même qu’un livre composé et illustré par ordinateur reste un livre.
Au contraire, l’imagerie virtuelle apparaît comme radicalement extérieure au cinéma. Elle repose sur la synthèse d’images tridimensionnelles en temps réel, et sur la visualisation stéréoscopique.
La notion de temps réel – c’est-à-dire d’images a volonté produite à la fois par le programme et le participant – et la dimension physique de la participation indique déjà l’essentiel de la différence avec le cinéma. Créer un monde virtuel, c’est d’abord créer un espace en trois dimensions, comme l’illustrent les créations de Jeffrey Shaw (The legible city ou le Musée virtuel), l’Abbaye de Cluny et le Polyworld présentés à Imagina 93. Ce n’est pas l’image-mouvement, mais les représentations de l’espace issues de l’architecture, de l’urbanisme, des sciences qui constituent le référent des images virtuelles.
Enfin, pour des raisons qui n’ont probablement rien de technique, l’imagerie virtuelle, ne compose pas avec les autres images. Traitant directement avec l’imaginaire, elle ne partage en rien l’universalisme du numérique. Elle ne cite pas, ne recycle pas, elle fuit l’hybridation ; elle est nombre, code, programme et langage.
Dans les années quatre-vingt-dix, toutes ces capacités de production se retrouvent sur l’ordinateur personnel, chargé de rassembler sur un même support des données aussi hétérogènes. Pour saisir ce qu’est un ordinateur multi-média le plus simple est de se représenter une télévision par câble dotée de toutes les ressources de l’informatique. L’utilisateur peut sélectionner, enregistrer, comparer, analyser, monter, saisir, commenter, etc.
Les réalisations multi-média restent pour l’instant, marquées par l’orientation graphique ; il s’agit d’encyclopédies audio-visuelles, de journaux multi-média, de livres d’images animées comme le dialogue Hitchcock-Truffaut, illustré de séquences, réalisé par le Massachusetts Institute of Technology. Surtout, la réunion informatique du texte, de l’image et du son – rendue possible par le support numérique – reste à inventer comme forme technologique et culturelle : on est loin ici de l’utilisation des « nouvelles techniques » pour produire de « nouvelles images ».
Les commentateurs se divisent d’ailleurs sur la définition de l’ordinateur comme nouveau médium. La numérisation ne fournit que l’équivalent du papier ou du film : le support. Pour qu’un nouveau médium se stabilise, il faut encore inventer et imposer des règles de présentation, de ponctuation (passage du texte à l’image, etc.), d’annotation et de structuration (pour préparer les traitements informatiques) Puisqu’il faudra se faire comprendre, on peut prévoir, sans grand risque, que ces règles seront à la fois héritées – du cinéma, de l’imprimé, et inédites, c'est-à-dire créées par l’informatique.
Cette tendance à prendre le cinéma comme modèle se traduit, par exemple, par le passage de « l’interface utilisateur graphique » (G.U.I.) à l’interface utilisateur vidéo » (V.U.I.). Nelson, l’inventeur de l’hypertexte, préconise l’abandon des interfaces actuelles, hétéroclites et « bricolées », et de se mettre à l’école du cinéma. Le Japonais Tani (Hitachi), à travers la notion de « vidéo orientée objet », qui n’est peut-être qu’un jeu de mots, rassemble les langages récents des programmateurs et l’utilisation des données vidéo pour le travail de groupe.
Aussi vagues soient-elles, les notions de « multi-média », d’ « hyper-média » fournissent un cadre opératoire pour l’échange de savoir-faire entre informatique et cinéma. Cet échange est effectif dans l’industrie (Apple et Lucas film), et, jusqu’à un certain point, dans les institutions ad hoc. Au M.I.T, c’est plus le cas du Média Lab que du Center for advanced visual studies. Le Centre Arts et medias de Karlsruhe-ZKM mène le même type de recherche « hybride ». Les informaticiens promoteurs du nouveau médium qui tentent de s’inspirer du langage cinématographique, redoublent en quelque sorte la disposition d’un certain cinéma enclin à considérer l’œuvre musicale, littéraire, ou picturale comme matière, prétexte, où modèle agonistique.
Dans un entretien de 1983, Jean-Luc Godard disait ; « Ce que je voudrais, c’est que les gens de chez I.B.M., je puisse leur dire : voilà, j’ai un bouquin de Françoise Dolto sur la religion et la psychanalyse, j’ai deux personnages, Joseph et Marie, trois cantates de Bach, un bouquin de Heidegger. Faites moi un programme qui m’arrange tout cela. Mais ils ne le peuvent pas, et moi il faudrait que je le fasse moi-même et je n’ai pas envie d’y passer vingt ans ! »
Je ne connais pas pour le cinéma de déclaration équivalente à celles des optimistes de l’hypertexte (Bolter, Landow) pour la littérature et l’imprimé : le numérique représente pour eux une génération technologique de textes qui résume, ou réalise les tendances contemporaines de l’écriture.
On a plus de difficultés à passer de la similitude à la simulation.
La simulation fait partie du régime de visibilité de la figuration numérique. La matière numérique est disposée au traitement et le présenter sous l’enveloppe d’un « audio-visuel classique » est une sorte d’hérésie. La réception active donne forme à la figuration. On considère généralement que le principe de cette réception réside dans l’attitude de simulation. Simuler, c’est « faire comme si ». Les jeux vidéo simulateurs de vol, les mondes virtuels ont fait connaître ce type de réception.
La simulation est nulle dans le spectacle traditionnel – avec ou sans effets spéciaux -, intense avec le virtuel et présente à chaque fois que le traitement des données, des images s’appuie sur un programme.
L’outillage de la simulation va du plus simple (la suite d’instructions fonctionnelles transmises à l’ordinateur) au plus surprenant (les prothèses du virtuel). Dans ce dernier cas, l’utilisateur est immergé dans l’espace de synthèse à la fois par la visualisation stéréoscopique et des capteurs de position placés sur le corps. L’audiovisuel se combine au mouvement ; les images se transforment au gré de l’intervention du spectateur.
L’envergure de la simulation dépend de la matière numérisée (les données proposées au traitement) et surtout de la possibilité pour l’utilisateur de maîtriser le programme, et remonter de l’image au modèle qui l’a produite.
L’exemple de l’analyse et de la reconnaissance numérique d’un personnage de film illustre comment la même technique peut être à l’origine de simulations extrêmement variées. Dans tous les cas, il faudra analyser un visage réel (Bohringer) ou un document image de ce visage (Bogart) et construire le modèle numérique qui générera la figuration, c’est-à-dire toutes les images en trois dimensions nécessaires.
S’il s’agit d’un film numérique de spectacle la simulation se cantonne à a production ; effet spécial joue sur la vraisemblance.
Si le film est consulté sur un ordinateur multimédia, de nombreux traitements faisant appel à la simulation peuvent être employés. Un index-acteurs peut être créé automatiquement ; il permettra de sélectionner les extraits où figure l’acteur ; l’utilisateur peut élargir sa recherche à d’autres films et simuler une anthologie filmique, utilisable, par exemple dans une école de comédiens. D’autres simulations peuvent être plus tendancieuses : la personnalité numérique est susceptible de toutes sortes d’avatars. Elle ne bénéficie d’aucune protection technique : les traits, la voix peuvent être modifiés. Dans cet ordre d’idées, circulent déjà des horreurs qui font, par anticipation, le régal des juristes.
Transporté dans un espace virtuel, le clone numérique de l’acteur peut entrer en relations, selon des règles programmées (des « scripts ») avec d’autres personnages. L’utilisateur peut lui-meme être enrôlé dans cette communauté virtuelle. Ses interventions gestuelles sont comprises des autres agents. Pour autant que le script l’ait prévu, il peut serrer la main de l’acteur, s’asseoir à la même table, et s’exercer au bras de fer avec lui.
Comme les personnages, tous les composants matériellement identifiables, et numériquement analysables des films peuvent être l’objet de traitement variés : le son, la luminosité, la colorimétrie, les plans, le montage… La simulation s’applique aux usages les plus courants comme les plus spectaculaires. Elle ne tient pas à un goût particulier des nouvelles techniques pour l’expérimentation et la prouesse. Elle est le mode de réception des images techniquement logique.
Même dans les interventions les plus simples, la simulation est possible et souvent nécessaire.
L’informatique ne crée pas seulement des situations nouvelles ; se saisissant des savoir-faire d’autres technologies, elle tend à les redistribuer dans la réception. L’exemple de l’imprimé est significatif. Comme technique de communication, elle propose de l’homothétie entre production et réception. Elle semble dire : tu pourras lire le livre, et voir le film en recomposant leur fabrication. Comme cette fabrication est une affaire à peu près illimitée, du plus « matériel » au plus « sémantique » les fonctionnalités de simulation sont innombrables, et souvent indécidables.
Parfois, l’intervention du spectateur s’impose. Les opérations de base de la consultation (pour voir, entendre, lire) nécessitent la reprise des procédures de modélisation. Que le programme se résume au simple curseur structurant le film pour préparer les traitements à venir, ou qu’il permette de produire des « communautés » et des « espaces » virtuels, les images n’existent que du fait de la participation technique du spectateur. La simulation n’est pas seulement une interface ; elle est une composante de la technologie.
Accepter le modèle de la simulation ; c’est jouer le code. Au cinéaste d’inventer non seulement les images, mais des cheminements entre les modèles et les différentes images, des ponts entre le cinéma et les autres images (peinture, photo), entre son art et la programmation.
S’arrêter sur l’image, sans s’arrêter aux images : voir.
Philippe Queau écrit : « Il ne faut point s’arrêter aux images. Les modèles sont nécessairement multiples et mobiles. Ils doivent être déliés de leurs nœuds internes pour être pleinement compris ».
Il est tentant, dans cette situation, de mettre en parallèle la perte d’aura de l’œuvre visuelle, et la perspective de recomposition d’un public critique. Voir un film serait toujours apprendre à voir un film et cela, sans disposition éthique ou esthétique, mais par l’effet nécessaire de la technologie. On a le droit aussi de craindre la fusion de Marioland et d’Hollywood et que l’effet spécial soit le seul numéro de la magie du code.
Quelle différence voyez vous entre une image fixe sur un récepteur de télévision numérique et une peinture pointilliste?
Rédigé par : Point jean-Pierre | 09/02/2008 à 16:56