On extended, boundless, vibratory and in-the-now sympathy music
http://jeromejoy.org/
|| NEWS
|| BIO
| SHOWS
| CATALOG
|| PROJE
(C)
TS
| MP3s
| CDs
| VIDEOS
|| BIBLIO
| STUDIES
| DOCUMENTATION
| PH.D.
| EDU
| COLLECTIVE JUKEBOX
| NOCINEMA.ORG
| CONCERTS FILMS
|| AUDITO
| QWAT?
|| home
| contact
|
| 🔎
|
Last changed - French time: 2015/02/26 05:00
>
Recent changes
B
I
U
S
link
image
code
HTML
list
Show page
Syntax
!!5. CONDITIONS TECHNIQUES D’UN CONCERT EN RÉSEAU Telles qu'elles sont listées dans l'ouvrage de Xiaoyuan Gu (Gu, Dick,Noyer & Wolf, 2004){footnote}{small}Gu X., Dick M., Noyer U. & Wolf, L. (2004). ''NMP - a new networked music performance system''. In Global Telecommunications Conference Workshops, 2004. GlobeCom Workshops 2004. IEEE, (pp. 176-185). http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1417570 {/small}{/footnote}, les facteurs techniques liés à la réussite d'un concert en réseau sont la sollicitation de la bande passante de la connexion, la sensibilité de la latence et l'optimisation de la synchronisation requise pour une transmission en streaming audio. Ces différents facteurs sont décrits avec plus de détail ci-dessous. Les commentaires actuels proposent d’accentuer la perfectibilité technique, c’est-à-dire que l’influence des appareils sur le rendu doit être supprimée au maximum avant de pouvoir parler véritablement de l’exécution et de la réalisation d’une œuvre musicale. {br}{br} ---- ---- !!!5.1. Bande passante Le streaming{footnote}{small}Le streaming (en français : lecture en continu ou ruissellement), aussi appelée lecture en transit ou encore diffusion en mode continu ou diffusion de flux continu, désigne un principe utilisé principalement pour l'envoi de contenu en « direct » (ou en léger différé). Très utilisée sur Internet, cette technique permet la lecture d'un flux audio ou vidéo à mesure qu'il est diffusé. Elle s'oppose (ou se différencie de) à la diffusion par téléchargement qui nécessite de récupérer l'ensemble des données d'un morceau ou d'un extrait vidéo avant de pouvoir l'écouter ou le regarder.{/small}{/footnote} audio de haute définition (de très haut débit et de type « full audio ») utilisé pour rendre les concerts en réseau aussi « réaliste » que possible, requiert une bande passante très optimisée et large et donc une technologie très avancée qui dépasse la configuration standard de connexion. Les contrôles des flux et l’optimisation d’envoi et de réception de données, avec un minimum de pertes et de congestions, est évidemment probant dans le cas des réseaux très hauts débits (aux alentours de 10 Gb/s), tel que l’Internet2. Toutefois, et selon l'objectif fixé, il est tout-à-fait possible de monter des configurations assez sophistiquées (multipoints) de concerts en réseau sur des connexions de type ADSL, en sachant que les taux de compression audio et les temps de latences seront dans un registre correspondant à la qualité de la bande passante. Dans ce cas, plusieurs paramètres peuvent venir perturber la réception et l'émission des streams, et causer, d'une part, la nécessité de prendre une compression basse ou standard, et, d'autre part, des pertes de données (drops, clicks). Ces effets peuvent être pris en compte, comme nous le verrons plus bas, par les musiciens, en tant que matériau sonore (généré par le système). {br}{br} ---- ---- !!!5.2. Temps de latence Un des plus grands problèmes de la musique en réseau est que le temps de latence fait partie intégrante du son car il est généré par la chaîne du système en réseau. Plusieurs facteurs contribuent à la latence d’un système en réseau : * 1) la latence du réseau entre la machine source et celle destinataire; * 2) la latence à la réception et à l’émission comprenant la “bufférisation” (« buffering »), la numérisation et la compression/décompression de données, l’envoi de données vers la carte réseau (NIC, « network interface card »), l’empaquement réseau et la mise en piles de données (« network stack processing », fragmentation/défragmentation), les partages de tâches pour optimiser le CPU par commutation de contexte (« context switching », les temps de transmission des messages lié aux horloges temps réel de la carte réseau (« actual transmission time »); * 3) la latence des cartes son et de la machine hôte (système d’exploitation, kernel), lié aux synchronisations et différences des horloges pour la capture/lecture des données audio. Pour que l'interaction musicale dans un concert en réseau soit perçue comme « naturelle », le temps de latence doit être inférieur à 30 millisecondes, en dessous du seuil de la perception humaine (Kurtisi, Gu & Wolf, 2006){footnote}{small}Kurtisi Z., Gu X. & Wolf L. (2006). ''Enabling network-centric music performance in wide-area networks''. Communications of the ACM, 2006, vol. 49, no 11, pp. 52-54. http://doi.acm.org/10.1145/1167838.1167862 {/small}{/footnote}. Si il y a trop de délai (retard) dans le système en réseau, cela rend difficile la jouabilité collective si les musiciens veulent adjuster leur jeu et se coordonner en fonction des sons qu'ils entendent (reçoivent) et qui sont joués par les autres instrumentistes et musiciens (Lazzaro & Wawrzynek, 2001){footnote}{small} Lazzaro J. & Wawrzynek J. (2001). ''A case for network musical performance''. In NOSSDAV '01: Proceedings of the 11th international workshop on Network and operating systems support for digital audio and video, (pp. 157-166). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/378344.378367 {/small}{/footnote}. Toutefois, la tolérance à cette difficulté liée au temps de la latence est fixée par le caractère, la nature et la structure de l'œuvre jouée, les musiciens, et les types d'instruments ou systèmes utilisés (Sawchuk & al., 2003){footnote}{small} Sawchuk, A., Chew, E., Zimmermann, R., Papadopoulos,C. & Kyriakakis,C. (2003). ''From remote media immersion to Distributed Immersive Performance''. In ETP '03: Proceedings of the 2003 ACM SIGMM workshop on Experiential telepresence, (pp. 110-120). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/982484.982506 {/small}{/footnote}. Des éléments de synchronisation autres que l'écoute directe (ou plus justement, médiatisée) peuvent être utilisés dans un concert en réseau, afin de rendre possible un jeu musical réactif et interactif dans le cadre de temps longs de latence (Lazzaro & Wawrzynek, 2001){footnote}{small} Lazzaro J. & Wawrzynek J. (2001). ''Ibid.'' {/small}{/footnote}. {br}{br} ---- ---- !!!5.3. Synchronisation des streams audio Les points d'émission et de réception d'un système en réseau multipoints doivent synchroniser les streams audio afin de garantir une présentation homogène et intègrale de la musique selon le degré de perfection choisi (Gu, Dick, Noyer & Wolf, 2004){footnote}{small}Gu X., Dick M., Noyer U. & Wolf, L. (2004). ''NMP - a new networked music performance system''. In Global Telecommunications Conference Workshops, 2004. GlobeCom Workshops 2004. IEEE, (pp. 176-185). http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1417570 {/small}{/footnote}. C'est l'enjeu actuel de la musique en réseau. Un point de vue intéressant est de considérer les imperfections de la synchronisation musicale en réseau, à titre d'exemple, comme faisant partie des qualités et des propriétés du dispositif en réseau, qu’il faut exploiter (Tanaka, Nokui & Momeni, 2005; Föllmer, 2001){footnote}{small}Tanaka A., Tokui N. & Momeni A. (2005). ''Facilitating Collective Musical Creativity''. CultureLab, University of Newcastle, In Proceedings of the 13th annual ACM international conference on Multimedia, “Interactive arts 1: interfaces for audio and music creation”, (pp. 191-198), Singapore. ; et aussi : Föllmer G. (2001). ''Soft Music''. In Crossfade – Sound Travels on the Web, San Francisco Museum of Modern Art. http://crossfade.walkerart.org/{/small}{/footnote}. Par exemple, la latence et le retard (delay) sont perçus dans les systèmes de streaming (de ruissellement selon l’adaptation franco-québécoise), quel que soit le débit technique de transfert autorisé par la structure de communication, comme des défauts qu’il resterait à améliorer pour obtenir une synchronisation quasi-parfaite (à l’égal d’une synchronisation d’événements dans un même espace). Ces défauts peuvent réintroduire des effets de « distance », et ainsi induire une acoustique artificielle et fluctuante liée aux variations de transferts de données sur le réseau (Tanaka, 2000; 2001){footnote}{small}« Latency is the acoustics of the Internet » (Tanaka A. (2000). ''Interfacing Material Space and Immaterial Space : network music projects''. In The Journal of the Institute of Artificial Intelligence of Chukyo University, Winter 2000, Toyota, Japan) (French version : Tanaka A. (2001). ''Relier l’espace matériel et l’espace immatériel : les projets de musique en réseau en 2000''. In Dossiers de l’Audiovisuel, No. 96, INA, Bry-sur-Marne).{/small}{/footnote} ; cette « presqu’acoustique » s’additionne à l’acoustique de l’espace d’émission/captation et à celle de l’espace de diffusion où le son transmis est réinjecté. Les effets de latence influant sur cette acoustique « artificielle » créent, d’une part, des décalages temporels (delays), et, d’autre part, des erreurs de transferts — et qui peuvent sembler être des parasites dans le son transmis : craquements, “glitches”, etc. — . Á titre d'exemple, sur un système de streaming standard en Icecast, les variations de latence peuvent aller de 10 secondes à 30 secondes. Ces erreurs sont principalement causées par des pertes, duplications ou erreurs de réordonnancement de paquets dûs à des congestions lors du parcours des données entre les deux hôtes malgré les techniques de compensation et de “re-delivery” présents dans les protocoles de communication (tels que TCP, UDP), par des désynchronisations lors des procédures de compression et de décompression, des problèmes de “bufférisation” entre l’interface réseau, la carte son (horloge) et les CPU des machines émettrices et réceptrices, et par d’autres artéfacts aléatoires liés à la communication, le tout influant sur la reconstitution intégrale du signal envoyé. Ces défauts présenteraient tout de même une propriété, celle de faire apparaître une matérialité (i.e. du grain, de « l’immatériau ») liée à la technique des flux en streaming, qui peut être acceptée en tant que matériau sonore. En l’état actuel, ces effets ou artéfacts de matérialité ne sont ni contrôlables ni jouables en tant que tels (à part dans le cas d’un bouclage du système en feedback et en modifiant volontairement des paramètres et des fonctions des organes contrôlant les transferts et l’encodage/décodage) : ils sont parfois qualifiés de « network porridge » (Kapur, Wang, Davidson & Cook, 2005){footnote}{small}Kapur A, Wang G., Davidson P. & Cook P.C. (2005). ''Interactive Network Performance : a dream worth dreaming ?''. In Organised Sound, 10 (3), pp. 209-219. Cambridge : Cambridge University Press.{/small}{/footnote} ; par contre, ils peuvent être interprétables dans le jeu musical. Cette propriété de granularité acoustique résultante produite par le système télématique peut prendre une importance dans la perception de la traversée d’un troisième environnement, jusqu’à présent, peu tangible, entre l’espace expéditeur et l’espace destinataire. La première intention des musiciens qui jouent en réseau ou qui développent des systèmes de concerts en réseau est la plupart du temps de manipuler et d’adapter les technologies de manière créative et musicale plutôt que de s’engager dans une perfectabilité technique liée à un minimum de tolérance d’artéfacts générés par le système (Bongers, 1998){footnote}{small}Bongers, B. (1998). ''An Interview with Sensorband''. In Computer Music Journal, 22 : 1, pp. 13-24, Spring 1998.{/small}{/footnote}; ceux-ci devenant des éléments et des caractéristiques de la composition, en tant que matériaux sonores, cadres acoustiques et aspects esthétiques (comme par exemple, les “delays” de transmission permettant d’intégrer la notion de distance et d’acoustique virtuelle). Les premiers concerts en réseau ont tous fait face à des problèmes liés à des conditions de retard (delay), de synchronisation des signaux, et d'écho et de feedback, rendant difficile la restitution de la dimension potentielle (audio et video) de tels concerts qui à l'époque n'étaient pas encore complètement immersifs (Sawchuk & al., 2003; Joy, 1998){footnote}{small}Sawchuk, A., Chew, E., Zimmermann, R., Papadopoulos,C. & Kyriakakis,C. (2003). ''From remote media immersion to Distributed Immersive Performance''. In ETP '03: Proceedings of the 2003 ACM SIGMM workshop on Experiential telepresence, (pp. 110-120). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/982484.982506; Joy, J. (1998).{/small}{/footnote}. {br}{br} ---- ---- ---- {br}{br} {html} <TABLE BORDER="0" WIDTH="100%"> <TR> <TD ALIGN="center"> <b><A HREF="index.php?page=PubliTelemusA2010"><<<<<<<< chapitre précédent</A> — <A HREF="index.php?page=PubliTelemusC2010">chapitre suivant >>>>>>>></A></b> </TD> </TR> </TABLE> {/html} {br}{br} {br}{br} {br}{br} ---- {plugin:FOOT_NOTES} {br}{br}
Password
Summary of changes
↓
↑
العربية
Čeština
Deutsch
Schweizerdeutsch
English
Esperanto
Español
Suomi
Français
עברית
Hrvatski
Magyar
Italiano
Nederlands
Português
Português brasileiro
Slovenština
臺灣國語
downloads
> Download mp3s
> Download videos
> Download texts
> Academia.edu
[
Edit
] [
History
]
[UP]
[
List of all pages
] [
Create page
] [
Erase cookies
]
1995/2020 — Powered by
LionWiki 3.1.1
— Thanks to Adam Zivner — webmaster & webdesign : Jérôme Joy — Author : Jérôme Joy — Any material is under copyleft
©
with in-line & in-text attributions —
http://jeromejoy.org/
— Hosted by
nujus.net
NYC since 2007, and by
The Thing
NYC (between 1995-2007 — Thanks to
Wolfgang Staehle and the Thing team
).