On extended, boundless, vibratory and in-the-now sympathy music

http://jeromejoy.org/


  || NEWS                 || BIO   | SHOWS   | CATALOG                 || PROJE(C)TS   | MP3s   | CDs   | VIDEOS                         || BIBLIO   | STUDIES   | DOCUMENTATION   | PH.D.   | EDU                 | COLLECTIVE JUKEBOX   | NOCINEMA.ORG   | CONCERTS FILMS   || AUDITO   | QWAT?                   || home   | contact  |     |    🔎  |

  Last changed - French time: 2011/04/25 04:00     > Recent changes

 




5.2. — Temps de latence Sommaire Télémusique — — Sommaire Auditoriums Internet6. — LE CONTEXTE HISTORIQUE DE LA MUSIQUE EN RÉSEAU





5.3. Synchronisation des streams audio(Edit)

Les points d'émission et de réception d'un système en réseau multipoints doivent synchroniser les streams audio afin de garantir une présentation homogène et intègrale de la musique selon le degré de perfection choisi (Gu, Dick, Noyer & Wolf, 2004)[1]. C'est l'enjeu actuel de la musique en réseau.

Un point de vue intéressant est de considérer les imperfections de la synchronisation musicale en réseau, à titre d'exemple, comme faisant partie des qualités et des propriétés du dispositif en réseau, qu’il faut exploiter (Tanaka, Nokui & Momeni, 2005; Föllmer, 2001)[2]. Par exemple, la latence et le retard (delay) sont perçus dans les systèmes de streaming (de ruissellement selon l’adaptation franco-québécoise), quel que soit le débit technique de transfert autorisé par la structure de communication, comme des défauts qu’il resterait à améliorer pour obtenir une synchronisation quasi-parfaite (à l’égal d’une synchronisation d’événements dans un même espace).

Ces défauts peuvent réintroduire des effets de « distance », et ainsi induire une acoustique artificielle et fluctuante liée aux variations de transferts de données sur le réseau (Tanaka, 2000; 2001)[3] ; cette « presqu’acoustique » s’additionne à l’acoustique de l’espace d’émission/captation et à celle de l’espace de diffusion où le son transmis est réinjecté. Les effets de latence influant sur cette acoustique « artificielle » créent, d’une part, des décalages temporels (delays), et, d’autre part, des erreurs de transferts — et qui peuvent sembler être des parasites dans le son transmis : craquements, “glitches”, etc. — . Á titre d'exemple, sur un système de streaming standard en Icecast, les variations de latence peuvent aller de 10 secondes à 30 secondes. Ces erreurs sont principalement causées par des pertes, duplications ou erreurs de réordonnancement de paquets dûs à des congestions lors du parcours des données entre les deux hôtes malgré les techniques de compensation et de “re-delivery” présents dans les protocoles de communication (tels que TCP, UDP), par des désynchronisations lors des procédures de compression et de décompression, des problèmes de “bufférisation” entre l’interface réseau, la carte son (horloge) et les CPU des machines émettrices et réceptrices, et par d’autres artéfacts aléatoires liés à la communication, le tout influant sur la reconstitution intégrale du signal envoyé.

Ces défauts présenteraient tout de même une propriété, celle de faire apparaître une matérialité (i.e. du grain, de « l’immatériau ») liée à la technique des flux en streaming, qui peut être acceptée en tant que matériau sonore. En l’état actuel, ces effets ou artéfacts de matérialité ne sont ni contrôlables ni jouables en tant que tels (à part dans le cas d’un bouclage du système en feedback et en modifiant volontairement des paramètres et des fonctions des organes contrôlant les transferts et l’encodage/décodage) : ils sont parfois qualifiés de « network porridge » (Kapur, Wang, Davidson & Cook, 2005)[4] ; par contre, ils peuvent être interprétables dans le jeu musical. Cette propriété de granularité acoustique résultante produite par le système télématique peut prendre une importance dans la perception de la traversée d’un troisième environnement, jusqu’à présent, peu tangible, entre l’espace expéditeur et l’espace destinataire.

La première intention des musiciens qui jouent en réseau ou qui développent des systèmes de concerts en réseau est la plupart du temps de manipuler et d’adapter les technologies de manière créative et musicale plutôt que de s’engager dans une perfectabilité technique liée à un minimum de tolérance d’artéfacts générés par le système (Bongers, 1998)[5]; ceux-ci devenant des éléments et des caractéristiques de la composition, en tant que matériaux sonores, cadres acoustiques et aspects esthétiques (comme par exemple, les “delays” de transmission permettant d’intégrer la notion de distance et d’acoustique virtuelle).

Les premiers concerts en réseau ont tous fait face à des problèmes liés à des conditions de retard (delay), de synchronisation des signaux, et d'écho et de feedback, rendant difficile la restitution de la dimension potentielle (audio et video) de tels concerts qui à l'époque n'étaient pas encore complètement immersifs (Sawchuk & al., 2003; Joy, 1998)[6].






5.2. — Temps de latence Sommaire6. — LE CONTEXTE HISTORIQUE DE LA MUSIQUE EN RÉSEAU






  1. Gu X., Dick M., Noyer U. & Wolf, L. (2004). NMP - a new networked music performance system. In Global Telecommunications Conference Workshops, 2004. GlobeCom Workshops 2004. IEEE, (pp. 176-185). http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1417570
  2. Tanaka A., Tokui N. & Momeni A. (2005). Facilitating Collective Musical Creativity. CultureLab, University of Newcastle, In Proceedings of the 13th annual ACM international conference on Multimedia, “Interactive arts 1: interfaces for audio and music creation”, (pp. 191-198), Singapore. ; et aussi : Föllmer G. (2001). Soft Music. In Crossfade – Sound Travels on the Web, San Francisco Museum of Modern Art. http://crossfade.walkerart.org/
  3. « Latency is the acoustics of the Internet » (Tanaka A. (2000). Interfacing Material Space and Immaterial Space : network music projects. In The Journal of the Institute of Artificial Intelligence of Chukyo University, Winter 2000, Toyota, Japan) (French version : Tanaka A. (2001). Relier l’espace matériel et l’espace immatériel : les projets de musique en réseau en 2000. In Dossiers de l’Audiovisuel, No. 96, INA, Bry-sur-Marne).
  4. Kapur A, Wang G., Davidson P. & Cook P.C. (2005). Interactive Network Performance : a dream worth dreaming ?. In Organised Sound, 10 (3), pp. 209-219. Cambridge : Cambridge University Press.
  5. Bongers, B. (1998). An Interview with Sensorband. In Computer Music Journal, 22 : 1, pp. 13-24, Spring 1998.
  6. Sawchuk, A., Chew, E., Zimmermann, R., Papadopoulos,C. & Kyriakakis,C. (2003). From remote media immersion to Distributed Immersive Performance. In ETP '03: Proceedings of the 2003 ACM SIGMM workshop on Experiential telepresence, (pp. 110-120). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/982484.982506; Joy, J. (1998).





   
   
   
    [Edit] [History] [UP] [List of all pages] [Create page]   [Erase cookies]


1995/2020 — Powered by LionWiki 3.1.1 — Thanks to Adam Zivner — webmaster & webdesign : Jérôme Joy — Author : Jérôme Joy — Any material is under copyleft © with in-line & in-text attributions —
http://jeromejoy.org/ — Hosted by nujus.net NYC since 2007, and by The Thing NYC (between 1995-2007 — Thanks to Wolfgang Staehle and the Thing team).