On extended, boundless, vibratory and in-the-now sympathy music

http://jeromejoy.org/


  || NEWS                 || BIO   | SHOWS   | CATALOG                 || PROJE(C)TS   | MP3s   | CDs   | VIDEOS                         || BIBLIO   | STUDIES   | DOCUMENTATION   | PH.D.   | EDU                 | COLLECTIVE JUKEBOX   | NOCINEMA.ORG   | CONCERTS FILMS   || AUDITO   | QWAT?                   || home   | contact  |     |    🔎  |

  Last changed - French time: 2011/04/26 04:00     > Recent changes

 




Résumé / AbstractSommaire Auditoriums Internet
Sommaire Télémusique
1.1.2. Le terme « télémusique »





1.INTRODUCTION(Edit)

1.1. Approches(Edit)

1.1.1. Qu’est-ce que la musique en réseau ?(Edit)

L’emploi du terme “musique en réseau” dans la musique actuelle permet de poser plusieurs hypothèses de départ : 1) il y a musique en réseau lorsqu’au moment où cette musique est jouée et exécutée, les musiciens et auditeurs sont répartis dans des espaces distincts et disjoints reliés par Internet ou par un système de communication télématique; 2) un ensemble de musiciens en réseau s’établit sur un système d’interdépendances instrumentales : des inputs et outputs des instruments étant reliés les uns aux autres (l’excitation des instruments peut être pilotée par un ou d’autres intrumentistes); 3) une troisième acceptation est celle de comprendre la musique en réseau comme toute musique diffusée sur un réseau de communications non-centré[1] (Internet), et devenant ainsi accessible en plusieurs points à la fois. Nous voyons que ces trois approches amènent des définitions qui peuvent plus ou moins différer : la mise en réseau concerne-t-elle la communication musicale entre des éléments spatiaux du dispositif d’un concert ? l’interaction instrumentale mécanique ou informatique entre des musiciens ? l’utilisation d’un support de diffusion pour véhiculer la musique vers chacun des auditeurs ?

Cette première approche permet de noter que la musique en réseau s’appuie sur une modulation entre ces trois facteurs : communication musicale spatiale, interaction instrumentale, et diffusion. Nous pouvons également avancer que cette modulation semble d’ordre organologique : c’est-à-dire de comprendre comment le dispositif en réseau devient un instrument, qui peut être qualifié d’hybride. Ce basculement de machines à instrument prolonge plusieurs siècles de tradition musicale et, à la fois, offre des modifications importantes en termes d’exécution et d’instrumentation musicale (entre musique de chambre et la musique spatialisée), de lutherie (électronique et télématique) et de techniques de jeu, du dispositif de l’audition et de la réception (auditoriums et contextes acoustiques), et finalement des modes compositionnels. Celles-ci nous invitent à reproblématiser les notions propres de l’instrumentalité, de l’expressivité et de l’orchestration musicales. Les aspects organologiques des dispositifs musicaux en réseau amène une redéfinition des modes d’interaction entre les musiciens, ainsi qu’avec les environnements acoustiques et avec le public, tout autant que le développement de cadres de composition, voire de co-composition.

Les conditions relationnelles dans un dispositif en réseau font entrer plusieurs niveaux instrumentaux (Cance, Genevois & Dubois, 2009)[2] :

    • les relations instrumentales traditionnelles (corps, instrument de production sonore, acoustique et environnement) ;
    • les relations instrumentales liées aux configurations numériques (instrument numérique, instrument logiciel, instrument virtuel) et nécessitant des interfaces musicales : « Pour faire accéder une configuration informatique au statut d’instrument, il faut une interaction avec le corps, c’est-à-dire une interface qui produise de l’information à partir de l’énergie, ce qui caractérise en propre l’organologie traditionnelle » (Rondeleux, 1999)[3] (caractérisée par les relations humain/ordinateur, “human computer interaction”, quelque soit le degré de physicalité, de matérialité et d’immatérialité de l’interface (Cadoz, 1999)[4]) ;
    • les relations instrumentales communicationnelles dues à la nécessité de connecter ou de faire communiquer des instruments entre eux, mais aussi aux distances entre les acteurs (musiciens, performeurs, auditeurs) ou entre les espaces disjoints dans lesquels ils sont localisés : cela requiert le développement d’interfaces de communication instrumentale (souvent couplées avec un système de communication textuelle et/ou visuelle).

Ces dernières sont spécifiques à la musique en réseau et plus généralement aux systèmes interactifs musicaux. Dans ce sens, la musique en réseau est une forme de la musique interactive, en sachant que la première peut considérer en supplément l’interconnexion d’espaces (espaces distants, espaces acoustiques) sans autre forme d’interaction instrumentale, exceptée celle de perception/action qui peut déterminer des décisions musicales et d’écoute. Les formes d’interaction développées dans la musique en réseau demandent à être explorées car leurs systèmes semblent être reproductibles et sujets à accroître leur précision.

En effet, l’interface de communication instrumentale doit être évaluée selon son potentiel d’expression musicale (Ferguson & Wanderley, 2009)[5], c’est-à-dire sa capacité à offrir un contrôle continu sur le résultat, autant déterminé ou indéterminé soit-il selon les critères compositionnels décidés, et aussi réactif que ce contrôle soit (pour faciliter l’expression spontanée et la coordination gestuelle). Cette particularité lui permet de pouvoir être adoptée par d’autres performeurs et musiciens. Elle doit également ne pas interférer et ne pas faire obstruction à la perception environnementale, c’est-à-dire que l’expérience musicale et sonore doit rester fluide et préserver l’interprétation spontanée liée au direct et aux perceptions spatiales. Ce potentiel d’expression entre le performeur/musicien et l’instrument conjugue l’optimisation de conception (tactile, haptique, visuelle, auditive) de l’interface et la pratique optimisée de la performance sur cette même interface.

Dernier point, la nature numérique des dispositifs instrumentaux en réseau pose, ou, plutôt, pose à nouveau, le problème de la conservation des œuvres musicales et, à la fois, des systèmes technologiques qui les constituent (et qui restent sans notation). Ce problème est dû à la rapide obsolescence des technologies numériques depuis plus de 25 ans de création d’œuvres interactives temps réel et plus de 50 ans de création d’œuvres électroniques : ceci est en cours de résolution avec le développement de méthodes de documentation structurée (OAIS - Open Archival Information System) (Lemouton, Bonardi & Ciavarella, 2009)[6] afin de viser une indépendance vis-à-vis des implémentations techniques. Dans ce sens, Serge Lemouton (et al.) questionne « l’émergence d’une lutherie sans organologie » (Lemouton, Bonardi & Ciavarella, 2009)[7] (i.e. ici, les systèmes informatiques considérés comme situés « entre le paradigme de la partition et celui de l’instrument ») ou en attente des moyens d’une classification organologique rendue possible par la description des instruments.

En parallèle, nous pourrions évoquer le développement d’une lutherie « étendue », c’est-à-dire conçue à partir d’une extension, que nous pourrions qualifiée de topologique, des configurations spatiales des outils et des instruments de la musique et de l’informatique musicale. Dans nos études précédentes à propos d’une approche de la télémusique et des homestudios (Joy, 1998) et d’une étude préliminaire sur les conditions organologiques de ceux-ci (Joy, 2003), il s’agissait d’explorer, en amont de notre recherche actuelle,

[l’expérimentation] sur l’Internet [du] déploiement d’œuvres musicales évolutives et processuelles, prenant les réseaux électroniques comme extension du studio informatique traditionnel, et conditionnant ainsi l’apparition de formes musicales de manière inédite, et un nouveau positionnement du public (“auditoriums”). (Joy, 1998; p. 35)

De même, Jean-Claude Risset relève dans son rapport Art-Science-Technologie à propos des perspectives à étudier pour les Centres de Recherche Musicale en France :

Internet conduira à une “délocalisation” des ressources de l’informatique musicale, par le biais des “studios en ligne” utilisables à distance ([qui se développent depuis 1996 à l’]Ircam, [à] York, [et à] Barcelone[8]) : mais les centres continueront de développer ces ressources et à régir la diffusion. (Risset, 1998; p. 93)

On voit ainsi dans la musique en réseau un prolongement des problématiques liées à la lutherie informatique, aux systèmes temps réel, aux simulations acoustiques (via l’électroacoustique et la psycho-acoustique) et à la spatialisation sonore (contrôle spatial du son), avec sans doute pour la première fois après le développement de la radio au début du XXème siècle, une convergence entre outils de création et outils de communication et de diffusion.

La musique en réseau, en étant basée sur un circuit télématique qui à la fois porte, transmet et peut produire des matériaux sonores, et même si les configurations en réseau (LAN et WAN) n’ont pas été prévues pour la production musicale (mais pour le support, le transfert et l’accès à des informations), questionne la notion d’instrument dont la dimension excède celle des instruments traditionnels en intégrant une interface de communication instrumentale. Cette exploration demande de définir comment ce dispositif devient un instrument et comment l’espace des réseaux devient musical : sans doute s’agit-il moins de réaliser des performances et des concerts qui abolissent les distances tout en répliquant des formes connues, que de considérer l’irruption des réseaux, en tant qu’acoustiques virtuelles et générateurs de sons, dans l’espace musical.








  1. Une musique diffusée à la radio n’est pas qualifiée de musique en réseau, pourtant il faudrait interroger les dispositifs “radiophoniques” engagés dans des œuvres comme RadioNet et Public Supply de Max Neuhaus, ou dans le projet Polymorphous Radio de Tetsuo Kogawa.
  2. Cance, C. ; Genevois, H & Dubois D. (2009). What is Instrumentality in New Digital Musical Devices ? A Contribution from Cognitive Linguistics & Psychology. In Actes de la International Conference on Interdisciplinary Musicology, CIM 2009, Paris.
  3. Rondeleux, Luc (1999). Une Histoire de l’Informatique Musicale entre Macroforme et Microcomposition. In Actes JIM’99, 17-19 mai 1999, Paris.
  4. Cadoz C. (1999). Musique, Geste, Technologie. In “Les Nouveaux Gestes de la Musique”, H. Genevois & R. de Vivo (eds.), pp. 47-92. Marseille : Éditions Parenthèses.
  5. Ferguson, S. & Wanderley, M. (2009). The McGill Digital Orchestra : Interdisciplinarity in Digital Musical Instrument Design. In Actes de la International Conference on Interdisciplinary Musicology, CIM 2009, Paris.
  6. Lemouton, S. ; Bonardi, A. & Ciavarella, R. (2009). Peut-on envisager une Organologie des Instruments Virtuels de l’Informatique Musicale. In Actes de la International Conference on Interdisciplinary Musicology, CIM 2009, Paris; voir aussi : les projets de l’IRCAM, CASPAR (Cultural, Artistic and Scientific Knowledge for Preservation, Access and Retrieval) et ASTREE (Analyse et Synthèse de Traitements Temps Réel).
  7. Lemouton, S. ; Bonardi, A. & Ciavarella, R. (2009). Ibid.
  8. Le studio en ligne à l’Ircam, le traitement du son à distance à l’Université d’York et à l’Université Pompeu Fabra de Barcelone.




Résumé / AbstractSommaire Auditoriums Internet
Sommaire Télémusique
1.1.2. Le terme « télémusique »






   
   
   
    [Edit] [History] [UP] [List of all pages] [Create page]   [Erase cookies]


1995/2020 — Powered by LionWiki 3.1.1 — Thanks to Adam Zivner — webmaster & webdesign : Jérôme Joy — Author : Jérôme Joy — Any material is under copyleft © with in-line & in-text attributions —
http://jeromejoy.org/ — Hosted by nujus.net NYC since 2007, and by The Thing NYC (between 1995-2007 — Thanks to Wolfgang Staehle and the Thing team).