On extended, boundless, vibratory and in-the-now sympathy music

http://jeromejoy.org/


  || NEWS                 || BIO   | SHOWS   | CATALOG                 || PROJE(C)TS   | MP3s   | CDs   | VIDEOS                         || BIBLIO   | STUDIES   | DOCUMENTATION   | PH.D.   | EDU                 | COLLECTIVE JUKEBOX   | NOCINEMA.ORG   | CONCERTS FILMS   || AUDITO   | QWAT?                   || home   | contact  |     |    🔎  |

  Last changed - French time: 2015/02/26 05:00     > Recent changes

 


Publishings/Publications : — Biblio — — Texts List




INTRODUCTION À UNE HISTOIRE DE LA TÉLÉMUSIQUE

(Jérôme Joy)


Chapitre 2 - Chapitre 3 - Chapitre 4 - Chapitre 5




<<<<<<<< chapitre précédent   —   chapitre suivant >>>>>>>>





Sommaire(Edit)








2.SITUATION(Edit)



2.1. Un instrumentarium ?(Edit)

Les développements et la pratique de la musique en réseau sont animés par un débat en cours : l'objectif est-il de reproduire la configuration du concert tel que nous le connaissons et ainsi de plier les conditions techniques existantes afin de les optimiser et de supprimer les effets de distance et ceux résiduels de la téléprésence ? ou faut-il considérer que la distance et la répartition (des acteurs d'un concert), ainsi que les conditions techniques des flux (streaming), modifient les constituants musicaux, instrumentaux et compositionnels et permettent d'envisager de nouvelles formes musicales d'interprétation, de composition et de public ? Ce même type de question avait été posé lors de l'apparition des instruments électroniques comme par exemple avec les synthétiseurs : devaient-ils simplement reproduire les instruments classiques (voire les remplacer) ou devenir des instruments à part entière avec leur propre registre, facture, répertoire et palette sonore et ainsi solliciter des modes et formes nouveaux d'écriture et de composition ?

La musique en réseau (ou télémusique) peut apparaître moins comme l'identification d'un genre musical en tant que tel (c’est-à-dire s’appuyant sur son propre langage et créant ses propres codes) qu’une mise à jour des conditions musicales — i.e. un renouvellement des conditions de la musique et de celles de faire de la musique —. Ou alors, hypothèse corollaire, faudrait-il l’apparenter aux autres instrumentariums et auditoriums (tels que la musique de chambre, la musique électroacoustique, etc.), et aux dispositifs qu’ils constituent respectivement pour produire et représenter de la musique ; chacun de ceux-ci présentant aussi des variations de conditions qui leur sont propres ou qui interagissent entre eux, et qui retracent des généalogies : historiques, techniques, d’écoute, etc.

Ces investigations prolongent les réflexions visionnaires d'Edgard Varèse lorsqu'il énonçait en 1917 :

Il faut que notre alphabet musical s'enrichisse. Nous avons aussi terriblement besoin de nouveaux instruments. [...] Les nouveaux instruments ne doivent être après tout, que des moyens temporaires d'expression. Les musiciens doivent aborder cette question avec le plus grand sérieux, aidés par des ingénieurs spécialisés. J'ai toujours senti dans mon œuvre personnelle, le besoin de nouveaux moyens d'expression. Je refuse de ne me soumettre qu'à des sons déjà entendus. Ce que je recherche, ce sont de nouveaux moyens techniques qui puissent se prêter à n'importe quelle expression de la pensée et la soutenir. (Varèse, 1917)[1],

ou encore dans un écrit ultérieur de 1936 :

Moreover, the new musical apparatus I envisage, able to emit sounds of any number of frequencies, will extend the limits of the lowest and highest registers, hence new organizations of the vertical resultants: chords, their arrangements, their spacings, that is, their oxygenation. ... I am sure that the time will come when the composer, after he has graphically realized his score, will see this score automatically put on a machine which will faithfully transmit the musical content to the listener. (Varèse, 1936)[2].







2.2. L’orchestre en réseau(Edit)

Tim Perkis[3], un des six compositeurs de « The Hub », propose de prendre pour analogie, afin de décrire un ensemble de musiciens “inter-connectés” (ou en réseau), l’exemple des gamelans, ensembles intrumentaux javanais et sundanais et balinais (et par extension, le « gong » balinais[4]), représentant un seul instrument musical constitué de plusieurs parties. De même, Dana Rappoport, dans son article « Chanter sans être ensemble — Des musiques juxtaposées pour un public invisible » (Rappoport, 1999)[5], souligne un second aspect très particulier de certaines musiques indonésiennes, celui de parties, jouées par des groupes en proximité, et à la fois, superposées, indépendantes, séparées et simultanées (“polymusiques”) : c’est-à-dire de plusieurs sources qui émettent simultanément sans présence de récepteurs (sans une audience externe).

Dans la musique occidentale, l’orchestre, en tant qu’ensemble de musiciens exécutant une musique composée, joue “d’une seule voix”, chaque instrumentiste, associé ou non à sa famille d’instruments selon qu’il s’agit d’un orchestre classique ou contemporain, se synchronisant par la battue et la direction du chef d’orchestre. L’orchestre dès le XVIIIème siècle est conçu comme un “instrument” qui est ajusté pour fusionner les timbres, chaque pupitre respectant “des rapports de puissance précisément définis” (Harnoncourt, 1982[1984])[6]. La répartition des puissances sonores et l’instrumentation jouent un rôle prépondérant dans l’équilibre final de la réalisation d’une œuvre[7]. Cette répartition a évolué au cours de l’histoire, tout autant que la facture des instruments et les modes de jeux instrumentaux, en s’adaptant aux espaces acoustiques des salles et lieux dédiés aux concerts. En effet, les propriétés de réverbération ou encore d’homogénéité de ces espaces ont une action sur la perception de la fusion des timbres et sur la distinction de phrases et traits musicaux. Par exemple, aux XVIIème et XVIIIème siècles, du fait des dallages, de la hauteur des salles et des revêtements de marbre, la réverbération était bien plus importante”[8] que dans les salles de concert modernes. Par ailleurs, la conception romantique et monumentale qui a suivi a induit des effets de ralentissement de tempo, qui, liés aux espaces acoustiques de très faible réverbération, favorisent l’acuité de “couleurs” progressives de masses sonores, résonant de l’ensemble de l’instrument orchestral.

La musique contemporaine au XXème siècle, par le déploiement mutiple de formations instrumentales issues de la musique de chambre, a renoué avec un orchestre/instrument dont chaque partie peut être organique et “distincte”, jusqu’à des organisations spatiales spécifiques appelant des redéfinitions de la place du public et de celle, présente ou non, de la conduite dirigée. Les évolutions instrumentales, électroniques et électroacoustiques, puis numériques, intriquées à celles compositionnelles, sont allées de pair avec ce développement des écritures et jeux musicaux liés à l’espace et aux répartitions spatiales jusqu’à des virtualisations d’espaces (Di Scipio, 1998; Vidolin, 1993; Desloges, 2001)[9]. Les hybridations d’espaces, superpositions et intrusions d’un espace dans un autre, proposent d’autres « continuums », fondés sur la segmentation et la répartition des sources sonores jusqu’à une perception d’espaces virtuels au-delà des murs de la salle de concert, offrant ainsi un renouveau des expériences esthétiques[10]. La spatialisation sonore crée ainsi une nouvelle homogénéité de l’espace commun et collectif dans lequel se trouvent les musiciens et les auditeurs, tout en questionnant la validité d’une idéalité des points d’écoute. En cela une autre conscience vient rejoindre celles déjà impliquées dans l’écoute musicale : écouter une musique est aussi écouter en même temps les résonances de l’espace dans lequel elle est jouée. De la variabilité des acoustiques d’un lieu au travers de systèmes de traitements sonores et de géométries architecturales, nous sommes passés à la pluralité des acoustiques simultanées en reliant des espaces physiques (et virtuels) entre eux[11] et en répartissant les sources sonores (dont les musiciens) dans ces espaces qu’elles excitent de manière significative jusqu’à ce que ces résultantes d’espaces soient constitutives de la musique même, de sa construction à sa réalisation[12]. L’instrument, au sens global du terme, devient composé d’espaces et d’acoustiques différenciées. Le développement de l’informatique a permis d’optimiser les interactions instrumentales et les effets virtuels, ainsi que de faciliter le transport en temps réel d’un point à un autre de données numériques, qu’elles soient des données de contrôles ou des données sonores. Au milieu des années 90 et au début des années 2000, ceci devient réalité à une échelle disons planétaire par la mise en place d’orchestres distribués et inter-connectés par le réseau Internet : les premiers exemples de concerts orchestraux en réseau se fondent sur une répartition des musiciens et du chef d’orchestre, comme le concert du GRAME-EOC music ensemble en 1996 entre Genève (musiciens) et Bonn (chef d’orchestre) pour jouer « Dérive » de Pierre Boulez, et celui de « l’Ode à la Joie » de Beethoven exécuté par Seiji Ozawa à Nagano avec des chœurs répartis sur les cinq continents.

Il est à remarquer que les systèmes de musique en réseau favorisent des performances ou “téléconcerts” de musique “live”, liée à des pratiques de composition en direct et d’improvisation. Dans un dispositif de musiciens en réseau, de surcroît lorsque ces performeurs sont aussi compositeurs et improvisateurs[13], l’interconnexion en réseau apparaît pour chacun, d’une part, comme une extension de sa propre configuration instrumentale, et d’autre part, comme c’est le cas dans « The Hub », en tant qu’un constituant de l’instrument consistant en la jonction et l’inter-opérabilité entres les configurations distantes et disjointes. Cette inter-opérabilité peut être fonctionnelle, c’est-à-dire qu’elle permet l’interaction et le contrôle de paramètres d’un performeur à un autre ou aux autres, ou, bien encore, elle est liée à des retours d’écoute qui viennent influencer les jeux de chaque performeur; dans les deux cas, aucun performeur n’est en mesure de contrôler le résultat final et collectif et l’évolution de cette musique jouée en réseau. Chaque exécution peut être alors différente et le nombre d’interactions possibles est infini, selon le nombre de performeurs, de paramètres mis en interaction, et de règles de jeu (ou protocoles) mises en place par les acteurs de l’orchestre. Un autre pas décisif est pris lorsque le public auditeur peut agir directement sur le processus musical en cours : c’est le cas du « KromoZone Intermedia Performance System » créé en 2000 par Timothy Place et Stephan Moore lors de la National Conference for the Society of Electro-Acoustic Music à Denton, Texas (Place & Moore, 2000)[14]. Á l’aide d’ordinateurs placés face à la scène, les auditeurs peuvent manipuler sur les écrans des curseurs, boutons et “controllers” qui agissent et modifient des paramètres prédéfinis des instruments informatiques joués par les musiciens sur la scène. Dans ce cas, l’orchestre s’étend aussi aux auditeurs par le jeu interactif de décisions prises par eux et par les musiciens.

Cet « orchestre du XXIème siècle » (Gosselin & Apo33, 2004)[15] est construit sur un instrumentarium qui implique un renouvellement des rôles de chaque acteur (compositeur, interprète, auditeur) en leur attribuant des modes opératoires non accessibles jusqu’à aujourd’hui, et qui réhausse la partipation des propriétés spatiales dans la musique même. Les conditions propres d’un concert instrumental traditionnel concernant les interactions entre musiciens liées à l’écoute, aux perceptions visuelles et aux effets proprioperceptifs, doivent être examinées dans le cas d’un “orchestre” en réseau pour vérifier les effets significatifs que leur absence ou modification entraine dans un concert distribué. Cet orchestre le plus souvent se trouve appareillé de systèmes vidéo, de connexions télématiques haut-débit et de logiciels de communication textuelle, afin d’intensifier les degrés d’interactions entre les musiciens. Par ailleurs, les conditions de fusion timbrale et de synchronisation étaient auparavant liées uniquement aux paramètres de distance et de réverbération acoustique de l’espace du concert (les réflexions acoustiques); dans un orchestre en réseau, il est nécessaire de prendre en compte les temps de retard (“delay” et “latency”) caractéristiques du dispositif de communication en sus des colorations dûes aux superpositions des espaces inter-connectés. Dans ce cas, les effets de retard ne sont plus seulement acoustiques mais aussi télématiques.







2.3. L’attention et la conscience inter-active(Edit)

Les conditions d'un système de musique en réseau participent aux questions actuelles à propos des interactions à distance médiatées par les réseaux électroniques, dont notamment celles concernant les communications inter-individuelles. Selon Gutwin et Greenberg (Gutwin & Greenberg, 2001)[16], les notions de perception, d'attention et de conscience (sensible) dans une situation face-à-face, notamment dans les configurations d'échanges, de conversation et de collaboration de travail, font partie intégrante de la communication conséquentielle, de l'alimentation de la conversation inter-individuelle et de la communication intentionnelle (ce que nous pourrions appeler la distinction entre destinataire et destinateur, c'est-à-dire toutes les conventions d'adresse et d'adressage). La configuration d'un concert traditionnel est un exemple de couplage serré et de collaboration synergétique dans lesquels les participants acquièrent un degré élevé d'attention et de conscience collective. Alfred Schütz dans son article « Faire de la musique ensemble » a relevé cet aspect de la relation sociale qui est particulière à la situation musicale; nous pourrions aussi nous reporter à des ouvrages plus anciens tels que « Comment Écouter » (« Peri tou akouein ») de Plutarque[17], et quelques extraits des Livres I et III des « Essais » de Montaigne dont

la parole est à moitié à celui qui parle, moitié à celui qui l'écoute.[18]

Les gestes, expressions faciales et mouvements corporels des musiciens partenaires, tout autant que les sons émis par leurs instruments sont des indices signifiants et intentionnels pour les autres musiciens (Malhotra, 1981)[19]. D'autres recherches indiquent que les musiciens sont aussi très sensible à la réponse (feedback) acoustique de l'environnement dans lequel ils jouent (Sawchuk, Chew, Zimmermann, Papadopoulos & Kyriakakis, 2003)[20]. Idéalement, un dispositif de musique en réseau devrait faciliter un haut degré d'attention individuelle et collective similaire à celui dont les instrumentistes font l'expérience dans une configuration de concert traditionnel.
Il faudrait aussi étudier de plus près la notion de « création collective » développée par Constantin Brailoiu dans ses recherches ethnomusicologiques (Brailoiu, 1959).







2.4. La syntonie(Edit)

Dans son article « Faire de la musique ensemble » (Schütz, 1951[1987])[21], Alfred Schütz analyse la situation musicale constituée d’un groupe d’interprètes et d’auditeurs ensemble, s’orientant les uns les autres à partir d’indices et de réactions d’interprétation au long d’un temps musical (ce qu'il appelle la « syntonie ») :

Chaque action de chaque interprète s’oriente non seulement selon la pensée du compositeur et sa relation au public mais, aussi, de façon réciproque, selon les expériences dans les temps externe et interne des autres interprètes ; [...] [c]hacun d’eux doit, par conséquent, prendre en compte ce que l’Autre doit interpréter simultanément. [...] Tout musicien de chambre sait à quel point une disposition qui les empêche de se voir peut être dérangeante. (Schütz, 1951[1987]){footnote}{small}Schütz, Alfred. (1951[2007]). Op. Cit. (p. 136).[/footnote}.

Ces situations de syntonie basées sur les éléments phatiques et de prosodie musicale dans la télémusique dans laquelle les musiciens sont acousmates, sont essentielles pour les concerts en réseau de musique improvisée expérimentale (c'est-à-dire sans partition ni direction des musiciens) tels qu'ils se développent aujourd'hui (« nomusic.org », « Le Placard », « Sobralasolas ! », etc.). Dans ces cadres d’improvisation voire de co-composition, les musiciens construisent des configurations spécifiques qui leur permettent de se syntoniser, d'engager des et de suivre une conduite commune aussi minimale soit-elle (pour, par exemple, la gestion du début et de la fin d'un set), en plus du suivi effectué par l'écoute : par exemple, en utilisant une interface textuelle de communication (de type IRC, « chat »), ou une communication visuelle (de type « Skype » et « iChatAV »), ou encore en proposant que le point d'émission à domicile (« at home ») de chaque musicien lorsque ceux-ci sont tous répartis, soit le lieu d'accueil d'un public local. Ainsi il y a autant de lieux d'émission que de lieux de réception publique, le public étant distribué. Une dernière proposition est d'ouvrir à un public internaute (disséminé, pouvant écouter chez eux) en mettant à disposition sur les réseaux l'accès à l'écoute du stream général de la performance collective[22].

Il s'agit d'explorer les conditions des ensembles instrumentaux distribués et des systèmes de jeux et d’écriture qu’elles engagent vis-à-vis d’un dispositif initial issu des formes concertantes et performatives : les places du public, de l’audience, de l’auditeur et des musiciens s’ajustent sur cette question de participation et de syntonie. C'est l'enjeu, aujourd’hui, de plusieurs projets d’œuvres et de composition musicales en réseau sont menés par les compositeurs[23]. Durant les années 80, le collectif The Hub pratiquait également lors de concerts ce type d’improvisation informatique sur une configuration en réseau à laquelle les performeurs sur scène étaient tous reliés, interagissant les uns les autres ; nous pouvons aussi nous référer aux improvisations électroniques qui se sont développées antérieurement à cette date (David Tudor, John Cage, AMM, Karlheinz Stockhausen, etc.)[24], même si ces structures de participation peuvent sembler plus éloignées.







2.5. L’écoute et le direct(Edit)

La composition peut s'emparer aujourd'hui de cette question fondamentale, après que celle-ci ait traversée successivement dans l'Histoire de la musique, l'interprétation instrumentale (comme moyen d'éclairer et de moduler plus ou moins une œuvre écrite, ou allographique), les pratiques d'arrangement de musiques existantes (Szendy, 2001)[25] et le développement des supports d'écoute qui sont devenus jouables (Djs, iPod battles, etc.). Les moyens de l'écoute s'étant multipliés à partir des techniques d'enregistrement et des télécommunications, il est possible d'écouter à présent chez soi, à domicile, ou encore de manière ambulatoire (radio, walkman, lecteurs mp3, téléphones mobiles) des musiques enregistrées en différé que nous pouvons reproduire à l'infini (et ceci depuis le début du XXième siècle). Il est possible d'envisager avec la musique en réseau ce qui serait une extension des pratiques en direct avec la radio (duplex, full duplex), des musiques jouées en direct simultanément à distance grâce aux techniques de streaming et composées spécialement pour ce medium. La musique en réseau poursuit donc l'aventure de la musique diffusée (par la radio, et ensuite celle composée « pour » la radio) en intégrant dans son dispositif de réalisation (ou d'exécution) et de composition les conditions du direct et de la présence simultanée à distance (« hic et nunc », « illic et simul »).

Il semble important de ne pas ignorer également l’intervention interprétative de l’auditeur / internaute en tant qu’acte créatif et interprétatif, et par là, de souligner que son auteur/auditeur devient un créateur en droit (During, 2004)[26]. il participe lui-même activement à la transformation de la musique en une expérience « environnementale » d’un genre nouveau, qui est proprement une expérience esthétique, engagée au-delà de la simple manipulation des cadrans et des boutons (Gould, 1983)[27] et du pilotage (Kihm, 2004)[28] de machines d'écoute ou de fonctions pré-programmés de logiciels.








3.OBJECTIFS(Edit)



Les objectifs d'un concert en réseau pourraient être résumés ainsi :

  • Il devrait permettre aux musiciens et également aux auditeurs (et/ou chef d'orchestre) de pouvoir collaborer et interagir à distance ;
  • Il devrait créer et proposer un espace virtuel immersif et réaliste (c-a-d qui donne l'impression d'une situation réelle, ou dont les conditions n'empêchent pas la perception de la réalité de la situation) pour optimiser les interactions synchrones ;
  • Il devrait garantir l'attention et la conscience sensible collective des participants afin qu'ils soient conscients des actions des autres partenaires présents dans l'espace virtuel commun, et faciliter toutes les formes de communication entre eux.








4.DÉFINITIONS ET APPROCHES TYPOLOGIQUES DES ESPACES SONORES CORRÉLÉS(Edit)





4.1. Définitions(Edit)

Depuis 2000, des publications et articles importants[29] ont été publiés sur cette question de la musique en réseau, et dans le même temps plusieurs approches d’une définition de la musique en réseau ont été énoncées :

  • une performance en réseau a lieu lorsque le comportement de l’instrument du performeur reçoit en entrée une source autre que le performeur lui-même, ou lorsque ce comportement est modifié par une influence extérieure (Moore & Place, 2001)[30];
  • la musique en réseau est une situation musicale dans laquelle les connexions traditionnelles orales et visuelles entre les musiciens sont augmentées, médiatées, relayées ou remplacées par des connexions contrôlées électroniquement (Jason Freeman)[31]; dans un texte plus récent, Jason Freeman ajoute que le terme de musique en réseau « décrit des œuvres dans lesquelles les artistes considèrent la topologie et les mécanismes de transmission et d’enregistrement propres à un réseau, mettant celui-ci comme partie constitutive de la conception et de la réalisation d’une œuvre »; cette seconde définition permet de créer une classification plus pertinente des œuvres sans que celle-ci soit basée sur ou dépendante de l’inclusion ou l’exclusion de la technologie (Freeman, 2009)[32];
  • un concert de musique en réseau (NMP, Network Music Performance) existe lorsque un groupe de musiciens, situés chacun dans des lieux différents, interagissent à l’aide d’un réseau (électronique) pour jouer ensemble de la même manière que s’ils étaient dans le même espace. (Lazzaro & Wawrzynek, 2001)[33] ;
  • dans l’art audio et la musique, l’expression « en réseau » implique communément une distribution spatiale multi-sites de points de transmission et de réception, et d’interactions simultanées entre ces sites distants : captures sonores à distance, acoustiques à distance, interconnexions entre lieux physiques et virtuels, et émergences au travers de ce dispositif de collectifs distribués de “joueurs” (Locus Sonus) (Joy & Sinclair, 2008)[34] ;
  • Dans la même veine que l’approche précédente, la notion d’ensembles ou de groupes distribués peut être un point d’entrée : un ensemble musical distribué consiste en un groupe de musiciens qui est distribué entre deux lieux ou plus. Quand la performance d’un ensemble musical traditionnel repose sur un espace acoustique commun entre le musicien et les auditeurs, les performances d’un ensemble musical distribué a besoin de prendre en compte la superposition d’espaces acoustiques différents et distants : acoustiques à distance, paysages sonores distants, improvisation laptop en réseau (Renaud & Rebelo, 2006)[35].

Ceci peut comprendre une palette de nombreux aspects :

  • concernant le public : audiences partagées et distribuées, pratiques en réseau d’écoute[36] ;
  • les réseaux en tant qu’instrument et source musicale (Nezvanova; Joy & Sinclair, 2008; Fontana; Lopez)[37] ;
  • les interconnexions d’espaces (Renaud & Rebelo, 2006)[38] ;
  • les conditions techniques et contraintes internes des réseaux : temps réel, synchronicité, latence, délais et retards, bande passante, qualité sonore, feedbacks et échos, ... (Braasch, 2008)[39] ;
  • créativité sociale, interactions, collaborations et facilitateurs impliqués dans les systèmes collectifs d’attention (Tanaka, Tokui & Momeni, 2005; Dauby, 2004)[40] ;
  • événements multicast ou unicast (Barbosa, 2006)[41] en direct et en temps réel sur Internet, et téléprésence.

Ces transports de sons, ou de données relatives du son, amènent plusieurs types de dispositif et d’action : déplacements, transmissions, contrôles de dispositifs sonores distants, captations à distance, interactions, etc.

La nature d’un contenu en flux continu permet d’emblée son utilisation comme élément de variabilité entre deux dispositifs :

  • un flux variable de données à distance peut nourrir et contrôler le comportement d’un processus local,
  • des interactions de variables respectivement localisées créent de l’empathie et de la sympathie entre des processus et leurs comportements,
  • des déplacements et transmissions sonores entre différents lieux contrôlés et joués collectivement en direct et en temps réel (streaming, duplex, unicast, multiplex, multicast), etc. : les contenus sonores, émis et reçus, sont diffusés d’un lieu à l’autre.

Afin d’illustrer cette approche et pour commencer une typologie d’états et de natures d’espace modifié par la transmission du son à distance, voici quelques repères et catégories d’utilisation et de corrélation d’espaces distants en tant que lieux sonores génératifs et diffusés, dans les domaines de la musique en réseau et également de l'art sonore et audio.







4.2. Acoustiques à distance(Edit)

  • acoustiques entrelacées : des envois et transferts de son via Internet viennent exciter l’acoustique d’espaces distants avec la possibilité de retour d’écoute des résultantes dans un autre espace, en l’occurrence, personnel (Silophone du collectif The User, Netrooms — The Long Feedback de Pedro Rebelo) ;
  • espace virtuel et acoustique : à partir d’un instrument « étendu » entre deux lieux connectés, des capteurs manipulés par le public excitent et activent l’acoustique et les résonances virtuelles des réseaux (Global String » de Atau Tanaka et Kasper Toeplitz, Le Poulpe d’Apo33 (Gosselin & Apo33, 2007)[42] ;
  • transmission entre des milieux sonores non-aériens : enregistrement et diffusion sonores dans des milieux différents, comme par exemple en milieu aquatique (Water Whistle de Max Neuhaus, Underwater Music de Michel Redolfi)







4.3. Transmissions à distance(Edit)

  • matériaux sonores distants : avant l’Internet, l’utilisation de téléphones ouverts pour capter et transmettre à distance des ambiances et du matériau sonore, qui sont ainsi mixés dans un travail musical (Variations VII de John Cage, durant l’événement “Nine Evenings” produit par E.A.T.), ou qui sont mixés à l’antenne à la radio (Public Supply, RadioNet de Max Neuhaus), ou encore mis à disposition via Internet sur une interface en ligne comme ressources publiques disponibles à l’utilisation (SoundExplorer de Yoshihiro Kawasaki, Resonance fm London Soundscape de Tom Wallace, Locustream SoundMap de Locus Sonus)
  • transmissions sonores continues en direct et insérées dans des lieux distants : un ou des réseaux ou dispositifs de microphones localisés captent des ambiances et environnements sonores et ces captations sont transférées d’un lieu à un autre et diffusées dans ce dernier par des haut-parleurs (Sound Field Insertion de Bill Viola, Oscillating Steel Grids along the Cincinnati-Covington Suspension Bridge et Landscape Sculpture with Fog Horns de Bill Fontana, City Links de Maryanne Amacher, et par extension Hole in Space de Kit Galloway & Sherrie Rabinowitz, Locustream de Locus Sonus)
  • performances en direct à l’aide de systèmes multipartites de téléconférence et de transmissions via satellite (The Last 9 minutes à la Documenta 6 de Douglas Davis, Nam June Paik, Charlotte Moorman et Joseph Beuys) et concerts « at home » (à domicile) diffusés en direct par streaming vers un réseau d’auditeurs et de radios (ISDN de FSOL - Future Sound of London, Festival X, Arenas, Tournaments et Battles organisés par nomusic.org).







4.4. Composition et interactions à distance(Edit)

  • composition en direct et jeu en inter-communication en réseau, distant et local : interactions de flux de données sonores entre performeurs en local, puis plus tard à distance, pour créer une musique réactive basée sur des principes de décision partagés et distribués (concerts et performances de The League of Automatic Composers et de The Hub)
  • écoute distribuée et jeu distribué en streaming : construction d’interfaces en ligne de mixage en direct de sources streamées simultanées, soient captées soient jouées, et d’écoute partagée par des contrôles multi-utilisateurs (RadioMatic de radiostudio.org & Jérôme Joy, userradio de August Black)
  • performance en direct distribuée et collaborative : interactions entre des performeurs disséminés dans différents lieux en utilisant une interface en ligne commune (Brain Opera de Tod Machover, FMOL de Sergi Jorda, mp3q de Atau Tanaka, Auracle de Max Neuhaus)
  • écoute en direct distribuée basée sur la structure des réseaux utilisée en tant que système de synthèse sonore et de support de composition, à l’image d’un “studio étendu” et d’un système distribué de diffusion : composition à l’aide de programmations de processus sonores en direct, génératifs, infinis et continus, en utilisant les protocoles web et de relais d’information (serveurs, machines clientes), les contraintes techniques des réseaux (latences et retards dûs au traffic) et les ordinateurs personnels et les espaces acoustiques locaux des auditeurs (audience “à la maison”) (Hypermusic — Vocales de Jérôme Joy)
  • envoi et échanges de fichiers son en vue d’une composition collaborative : corollaire au peer-to-peer, échanger des fichiers sonores via les réseaux électroniques et ainsi composer à plusieurs à partir de fichiers et de matériaux communs, à l’image de palimpsestes, a permis de joindre la dimension collective (liée généralement à l’improvisation) dans les pratiques de composition (Phonographic Migrations de Yannick Dauby), et par extension de considérer le peer-to-peer et le streaming comme des pratiques collectives de l’écoute (Collective JukeBox et RadioMatic de Jérôme Joy, The Thing et RadioStudio.org), qualifiée dans ce cas, d'écoute partagée (Yannick Dauby)







4.5. Spatialisation sonore à distance et sons localisés(Edit)

  • extension de la spatialisation sonore dans des espaces articulés et interactifs, du local au distant (et vice-versa) par l’amplification électroacoustique, la téléphonie mobile et l’Internet, jusqu’aux espaces virtuels (field spatialization, Locus Sonus) : des espaces synthétiques et acoustiques peuvent être joints ensembles et réagir les uns aux autres par la navigation de l’auditeur et le jeu avec des objets sonores mobiles, déplacés, qui excitent ces espaces, afin de les faire résonner selon leurs propriétés naturelles ou calculées, et selon la position de l’auditeur (New Atlantis de Locus Sonus et SAIC Sound Department Chicago)
  • organisation de sources sonores et de diffusions dans des espaces publics, éloignés des studios et des salles d’exposition et de concert : campagne et scénario d’enregistrement et de prise de son à partir de trajets géographiques (A Dip in the Lake de John Cage), diffusé en direct sur des fréquences radio FM que les auditeurs peuvent captées dans des périmètres définis (Drive-in Music de Max Neuhaus)
  • transmissions spatialisées de sons entre deux lieux : prise de son mobile et contrôlée, transmise en direct et simultanément dans un autre lieu (Virtual acoustic-space system de Ron William, Wimicam de Locus Sonus), ou captations microphoniques en direct basées sur plusieurs lieux contrôlées et traitées par des processus sur un serveur qui les fait utilise comme matériaux de composition sonore et d’installation dans les espaces de ces lieux (Le Poulpe d’Apo33)
  • re-création de points d’écoute multi-sites : enregistrements microphoniques simultanés en plusieurs points, plus ou moins éloignés, d’un même site ou environnement (Kirribilli Wharf de Bill Fontana)







4.6. Cartographie sonore et sons géo-taggés et géo-localisés(Edit)

• en construisant des représentations visuelles de localisations sonores, le plus généralement situées dans des environnements extérieurs, à l’aide de cartes géographiques ou auditives à partir desquelles les auditeurs peuvent accéder aux séquences sonores enregistrées or aux streams sonores captés sur les lieux indiqués (Acoustic World Atlas de Thomas Gerwin, SoundBum par un collectif japonais, H|U|M|B|O|T durant net_condition ZKM, fmwalks d’Udo Noll, Soinu Mapa d’Audiolab Arteleku, Phonographic Migrations / Paysages Sonores Partagés de Yannick Dauby, SoundTransit de Derek Holzer et al., Radio Aporee d’Udo Noll, NY SoundMap Seeker de NYSAE, World Listening Project basé à Chicago, Locustream SoundMap de Locus Sonus)

• en représentant le procédé d’une campagne d’enregistrement de prises de son (A Sound Map of the Hudson River d’Annea Lockwood), en reliant et en associant une production sonore à des lieux spécifiques celle-ci étant enregistrée (les soundwalks de Janett Cardiff), ou en streaming à l’aide de techniques satellitaires ou de géo-localisation, tel que le GPS - Global Positioning System (disponible depuis 2000) -, les réseaux de téléphonie et de smart phones (Audio Nomad de Nick Mariette, Aura de Steve Symons , SIGNAL_SEVER! - TRANSIGNAL 1 du Projekt Atol, Makrolab et Pact Systems, Net_dérive d’Atau Tanaka)







4.7. Détournements et sonification de données à distance(Edit)

La sonification de données peut être considérée comme la contrepartie acoustique de la visualisation graphique des données, c'est-à-dire la traduction de données dans le domaine sonore (Kramer et al., 1999; Barrass & Kramer, 1999)[43]. Ce terme désigne toute diffusion d’un son – qui ne contient pas de paroles – ayant pour but de traduire en son une donnée qui n’est a priori pas sonore (Demersseman, 2009)[44].

  • lorsque le son est généré ou contrôlé par des fluctuations de sources distantes non-sonores, telles que des variations électriques, électromagnétiques, d’ondes courtes et d’ondes HF/ELF/VLF (Natural VLF Radio Phenomena de Stephen McGreevy, Pygmy Gamelan de Paul DeMarinis, Electrical Walks de Christina Kubisch, Radio Astronomy d’Adam Hyde, The Bio-Kinetic Sonusphere Interrogator de Robin McGinley, Sky Ear d’Usman Haque, xxxxx de Martin Howse), des mouvements visuels et des captures vidéo de déplacements de corps dans l’espace (VNS de David Rokeby), ou encore de variations de flux de données provenant d’activités robotisées ou d’interfaces visuelles et tactiles manipulées (Space Bodies de Mia Zabelka, Piano-as image media de Toshiro Iwai), ou de flux d’information sur Internet (The Messenger de Paul DeMarinis, Ping de Chris Chafe, Ping Melody de Pawel Janicki), ou finalement tout autre flux d’information qui peut être capté et numérisé.
  • lorsque le son capté à partir de sources en direct de communication privée ou publique, devient un matériau dans un processus musical ou sonore (les performances de l'artiste et musicien anglais Scanner qui capte et syntonise (illicitement) les conversations sur les téléphones cellulaires à partir d’un scanner, AudioTrace de NoMusic par la captation des fréquences radio de la police, des radars et de la CB).








5. CONDITIONS TECHNIQUES D’UN CONCERT EN RÉSEAU(Edit)

Telles qu'elles sont listées dans l'ouvrage de Xiaoyuan Gu (Gu, Dick,Noyer & Wolf, 2004)[45], les facteurs techniques liés à la réussite d'un concert en réseau sont la sollicitation de la bande passante de la connexion, la sensibilité de la latence et l'optimisation de la synchronisation requise pour une transmission en streaming audio. Ces différents facteurs sont décrits avec plus de détail ci-dessous.

Les commentaires actuels proposent d’accentuer la perfectibilité technique, c’est-à-dire que l’influence des appareils sur le rendu doit être supprimée au maximum avant de pouvoir parler véritablement de l’exécution et de la réalisation d’une œuvre musicale.





5.1. Bande passante(Edit)

Le streaming[46] audio de haute définition (de très haut débit et de type « full audio ») utilisé pour rendre les concerts en réseau aussi « réaliste » que possible, requiert une bande passante très optimisée et large et donc une technologie très avancée qui dépasse la configuration standard de connexion. Les contrôles des flux et l’optimisation d’envoi et de réception de données, avec un minimum de pertes et de congestions, est évidemment probant dans le cas des réseaux très hauts débits (aux alentours de 10 Gb/s), tel que l’Internet2.

Toutefois, et selon l'objectif fixé, il est tout-à-fait possible de monter des configurations assez sophistiquées (multipoints) de concerts en réseau sur des connexions de type ADSL, en sachant que les taux de compression audio et les temps de latences seront dans un registre correspondant à la qualité de la bande passante. Dans ce cas, plusieurs paramètres peuvent venir perturber la réception et l'émission des streams, et causer, d'une part, la nécessité de prendre une compression basse ou standard, et, d'autre part, des pertes de données (drops, clicks). Ces effets peuvent être pris en compte, comme nous le verrons plus bas, par les musiciens, en tant que matériau sonore (généré par le système).





5.2. Temps de latence(Edit)

Un des plus grands problèmes de la musique en réseau est que le temps de latence fait partie intégrante du son car il est généré par la chaîne du système en réseau. Plusieurs facteurs contribuent à la latence d’un système en réseau :

  • 1) la latence du réseau entre la machine source et celle destinataire;
  • 2) la latence à la réception et à l’émission comprenant la “bufférisation” (« buffering »), la numérisation et la compression/décompression de données, l’envoi de données vers la carte réseau (NIC, « network interface card »), l’empaquement réseau et la mise en piles de données (« network stack processing », fragmentation/défragmentation), les partages de tâches pour optimiser le CPU par commutation de contexte (« context switching », les temps de transmission des messages lié aux horloges temps réel de la carte réseau (« actual transmission time »);
  • 3) la latence des cartes son et de la machine hôte (système d’exploitation, kernel), lié aux synchronisations et différences des horloges pour la capture/lecture des données audio.

Pour que l'interaction musicale dans un concert en réseau soit perçue comme « naturelle », le temps de latence doit être inférieur à 30 millisecondes, en dessous du seuil de la perception humaine (Kurtisi, Gu & Wolf, 2006)[47]. Si il y a trop de délai (retard) dans le système en réseau, cela rend difficile la jouabilité collective si les musiciens veulent adjuster leur jeu et se coordonner en fonction des sons qu'ils entendent (reçoivent) et qui sont joués par les autres instrumentistes et musiciens (Lazzaro & Wawrzynek, 2001)[48]. Toutefois, la tolérance à cette difficulté liée au temps de la latence est fixée par le caractère, la nature et la structure de l'œuvre jouée, les musiciens, et les types d'instruments ou systèmes utilisés (Sawchuk & al., 2003)[49]. Des éléments de synchronisation autres que l'écoute directe (ou plus justement, médiatisée) peuvent être utilisés dans un concert en réseau, afin de rendre possible un jeu musical réactif et interactif dans le cadre de temps longs de latence (Lazzaro & Wawrzynek, 2001)[50].





5.3. Synchronisation des streams audio(Edit)

Les points d'émission et de réception d'un système en réseau multipoints doivent synchroniser les streams audio afin de garantir une présentation homogène et intègrale de la musique selon le degré de perfection choisi (Gu, Dick, Noyer & Wolf, 2004)[51]. C'est l'enjeu actuel de la musique en réseau.

Un point de vue intéressant est de considérer les imperfections de la synchronisation musicale en réseau, à titre d'exemple, comme faisant partie des qualités et des propriétés du dispositif en réseau, qu’il faut exploiter (Tanaka, Nokui & Momeni, 2005; Föllmer, 2001)[52]. Par exemple, la latence et le retard (delay) sont perçus dans les systèmes de streaming (de ruissellement selon l’adaptation franco-québécoise), quel que soit le débit technique de transfert autorisé par la structure de communication, comme des défauts qu’il resterait à améliorer pour obtenir une synchronisation quasi-parfaite (à l’égal d’une synchronisation d’événements dans un même espace).

Ces défauts peuvent réintroduire des effets de « distance », et ainsi induire une acoustique artificielle et fluctuante liée aux variations de transferts de données sur le réseau (Tanaka, 2000; 2001)[53] ; cette « presqu’acoustique » s’additionne à l’acoustique de l’espace d’émission/captation et à celle de l’espace de diffusion où le son transmis est réinjecté. Les effets de latence influant sur cette acoustique « artificielle » créent, d’une part, des décalages temporels (delays), et, d’autre part, des erreurs de transferts — et qui peuvent sembler être des parasites dans le son transmis : craquements, “glitches”, etc. — . Á titre d'exemple, sur un système de streaming standard en Icecast, les variations de latence peuvent aller de 10 secondes à 30 secondes. Ces erreurs sont principalement causées par des pertes, duplications ou erreurs de réordonnancement de paquets dûs à des congestions lors du parcours des données entre les deux hôtes malgré les techniques de compensation et de “re-delivery” présents dans les protocoles de communication (tels que TCP, UDP), par des désynchronisations lors des procédures de compression et de décompression, des problèmes de “bufférisation” entre l’interface réseau, la carte son (horloge) et les CPU des machines émettrices et réceptrices, et par d’autres artéfacts aléatoires liés à la communication, le tout influant sur la reconstitution intégrale du signal envoyé.

Ces défauts présenteraient tout de même une propriété, celle de faire apparaître une matérialité (i.e. du grain, de « l’immatériau ») liée à la technique des flux en streaming, qui peut être acceptée en tant que matériau sonore. En l’état actuel, ces effets ou artéfacts de matérialité ne sont ni contrôlables ni jouables en tant que tels (à part dans le cas d’un bouclage du système en feedback et en modifiant volontairement des paramètres et des fonctions des organes contrôlant les transferts et l’encodage/décodage) : ils sont parfois qualifiés de « network porridge » (Kapur, Wang, Davidson & Cook, 2005)[54] ; par contre, ils peuvent être interprétables dans le jeu musical. Cette propriété de granularité acoustique résultante produite par le système télématique peut prendre une importance dans la perception de la traversée d’un troisième environnement, jusqu’à présent, peu tangible, entre l’espace expéditeur et l’espace destinataire.

La première intention des musiciens qui jouent en réseau ou qui développent des systèmes de concerts en réseau est la plupart du temps de manipuler et d’adapter les technologies de manière créative et musicale plutôt que de s’engager dans une perfectabilité technique liée à un minimum de tolérance d’artéfacts générés par le système (Bongers, 1998)[55]; ceux-ci devenant des éléments et des caractéristiques de la composition, en tant que matériaux sonores, cadres acoustiques et aspects esthétiques (comme par exemple, les “delays” de transmission permettant d’intégrer la notion de distance et d’acoustique virtuelle).

Les premiers concerts en réseau ont tous fait face à des problèmes liés à des conditions de retard (delay), de synchronisation des signaux, et d'écho et de feedback, rendant difficile la restitution de la dimension potentielle (audio et video) de tels concerts qui à l'époque n'étaient pas encore complètement immersifs (Sawchuk & al., 2003; Joy, 1998)[56].








<<<<<<<< chapitre précédent   —   chapitre suivant >>>>>>>>








  1. Varèse, Edgar (1917). Verbe & Que la musique sonne. REVUE 391, n° 5, New York, June 1917, (p. 1 & p. 3).
  2. Varèse, Edgard (1936). New Instruments and New Music. In « The Liberation of Sound. Perspectives on New Instruments and New Music », Elliott Schwartz & Barney Childs (eds.).
  3. Dans le texte inclus dans le livret du cd « Wreckin’ Ball » de The Hub, Artifact Recordings 1008.
  4. Et le “reyong” (ou “reong”) qui est un instrument dans le gamelan gong kebyar, joué par quatre instrumentistes en même temps.
  5. « Certains rituels indonésiens impliquent l’exécution de plusieurs musiques à la fois dans le même espace et dans le même temps : ainsi, plus de six chœurs peuvent chanter côte à côte mais séparément. Alors que ces musiques ne font l’objet d’aucune coordination ryhtmique, elles sont pourtant exécutées simultanément : elles sont juxtaposées. Cette juxtaposition est fixe, durable et intentionnelle. » (Rappoport D. (1999). Chanter sans être ensemble — Des musiques juxtaposées pour un public invisible. In “L’Homme”, Revue Française d’Anthropologie, no. 152, (pp. 143-162). Paris : Éditions EHESS)
  6. Harnoncourt, Nikolaus (1982[1984]). Le Discours Musical — Pour une nouvelle conception de la musique (Musik als Klangrede — Wege zu einem neuen Musikverständnis). Traduit par Dennis Collins, (p. 151). Paris: Gallimard.
  7. Aspect souligné par Paul Hindemith, dans son discours prononcé lors du festival Bach à Hambourg, le 12 septembre 1950. (Cité par Nikolaus Harnoncourt, Ibid, (p. 152))
  8. Harnoncourt, Nikolaus (1982[1984]). Ibid. p. 153.
  9. Di Scipio A. (1998). El sonido en el espacio, el espacio en el sonido (Le son dans l’espace, l’espace dans le son). Doce Notas Preliminares, no. 2, pp. 133-157, Décembre 1998; Vidolin A. (1993). Musica nello spazio. In "Il Giornale degli artisti", no. 4, (pp. 4-5).Venezia; Desloges, Sébastien. (2001/2002). L’Espace de l’Écoute - L’Écoute de l’Espace. Mémoire de maîtrise d’Histoire de l’Art, Université de Rennes.
  10. « La distribution dans l’espace devient une nécessité structurelle. [...] Nous devons étendre encore plus l’idée d’une “continuité spatiale réelle” à l’intérieur de laquelle les agrégats sonores sont projetés. (Boulez, Pierre (1955). Á la limite du pays fertile. In Die Reihe, I) (Cité par Di Scipio, Agostino (1998), Ibid.. pp. 139-140.)
  11. Un exemple cité par Agostino di Scipio est sur ce point très éclairant : « “Noms des Airs” (1994) de Salvatore Sciarrino ... est une œuvre intéressante, ne serait-ce que pour exister, dans sa première - et jusqu’ici unique — exécution, comme une sorte de musique “parasitaire”. Sciarrino y recueillait avec des microphones le son de l’exécution orchestrale d’une autre composition (« La Favola di Orfeo » de Casella, jouée dans un théâtre normal), la soumettait immédiatement, pendant ce même concert, à plusieurs techniques d’élaboration (avec l’aide d’Alvise Vidolin et Nicola Bernadini), et la diffusait finalement au moyen de haut-parleurs situés dans des lieux souterrains que les auditeurs pouvaient visiter. [...] Dans ce cas, le contact avec l’espace spécifique [dans les profondeurs souterraines des “Cantine del Redi” à Montepulciano] est une partie essentielle de l’idée compositionnelle : le compositeur veut occuper un lieu avec des sons et nous parler d’eux en utilisant les résonances de ce même lieu. Une telle opération peut se considérer comme une “installation musicale” : les sons proposés prennent un sens, non en eux-mêmes, mais du fait de résonner dans un lieu spécifique, dans une contexte architectonique particulier. » (Di Scipio A. (1998), Ibid.. pp. 146-147.). — « Noms des Airs », ou « Una discesa nel suono d’Orfeo », a été créée le 31 juillet 1994 lors des 19èmes Cantiere Internazionale d’Arte à Montepulciano, avec la collaboration du Centro Tempo Reale de Florence. Á lire aussi : Vidolin A. (2005). Percorsi sonori di un teatro immaginario. Da “Noms des Aires” a “Lohengrin II” di Salvatore Sciarrino. In “Rivista di Analisi e Teoria Musicale - GATM”, “Il suono transparente - Analisi di opere con live electronics”, édité par Andrea Cremaschi et Francesco Giomi, XI no. 2, LIM Lucca, 2005, (pp. 89-109).
  12. Ce que l’équipe Locus Sonus a appelé « Field Spatialisation », la “spatialisation de terrains” ou spatialisation ambulatoire : « Les problématiques qui s’ouvrent avec cette notion de Field Spatialization permettent de mieux interroger et discerner les dimensions impliquées dans les pratiques sonores d’espace et en réseau. Elle met à jour un séquencement des mises en espace articulées à des distances et des terrains : de la diffusion sur haut-parleurs dans un espace local à celle sur haut-parleurs HF dans un périmètre plus large (outdoor), au streaming entre des espaces disjoints et distants, jusqu’à des innervations de diffusions et d’acoustiques entre espaces physiques et espaces virtuels. » (Joy J. & Sinclair P. (2009). Les Espaces Sonores en Réseau — Pratiques de la recherche en art — Locus Sonus. In “Recherche & Création — Art, Technologie, Pédagogie, Innovation”, édité par Samuel Bianchini, pp. 122-139. Paris : Éditions Burozoïque / Les Éditions du Parc, École Nationales Supérieure d’Art de Nancy), http://locusonus.org/.
  13. Il faut se rappeler que dans la musique jusqu’au XVIIIème siècle, l’improvisation est inséparable de la pratique musicale.
  14. Place T.A. & Moore S. (2000). The KromoZone Intermedia Performance System. In Procedings of the annual conference of the Society for the Electro-Acoustic Music, Denton, Texas, Mars 2000.
  15. Gosselin, Sophie & Apo33. (2004). L'Orchestre au 21ème siècle. In Revue Volume ! n°3, 2004.
  16. Gutwin C. & Greenberg S. (2001). The Importance of Awareness for Team Cognition in Distributed Collaboration. In Report 2001-696-19, Dept Computer Science, University of Calgary, Alberta, Canada, (pp. 1-33).
  17. Plutarque (ca. 100[1995]). Comment Écouter. Traduit du grec par Pierre Maréchaux, collection « Petite Bibliothèque », (pp. 52-53). Paris: Éd. Payot & Rivages.
  18. Montaigne (1580[2004]). Essais, I, 40 - Considérations sur Cicéron. Collection « Quadridge », 2004, (p. 251). Paris: Presses Universitaires de France; Et aussi: Montaigne (1588[2004]). Essais, III, XIII — De l'Expérience. Collection « Quadridge », 2004, (pp. 1067-1088). Paris: Presses Universitaires de France.
  19. Malhotra V. (1981). The Social Accomplishment of Music in a Symphony Orchestra: A Phenomenological Analysis. In Qualitative Sociology, Vol. 4, no. 2, (pp. 102-125).
  20. Sawchuk, A., Chew, E., Zimmermann, R., Papadopoulos,C. & Kyriakakis,C. (2003). Supra chap1 (50). Sawchuk, A., Chew, E., Zimmermann, R., Papadopoulos,C. & Kyriakakis,C. (2003). From remote media immersion to Distributed Immersive Performance. In ETP '03: Proceedings of the 2003 ACM SIGMM workshop on Experiential telepresence, (pp. 110-120). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/982484.982506
  21. Schütz, Alfred. (1951 [2007]). Faire de la Musique Ensemble – une étude de la relation sociale. In "Écrits sur la Musique, 1924-1956". Collection Répercussions. Trad. Bastien Gallet et Laurent Perreau. Paris: Éditions M.F. Musica Falsa, (pp. 133-138). Citons par exemple ce passage: « A travers cette re-création du processus musical, l’interprète prend part au courant de conscience du compositeur aussi bien que de l’auditeur. De ce fait il aide ce dernier à s’immerger dans l’articulation particulière du flux du temps interne qui est le sens propre du morceau de musique considéré. Que l’interprète et l’auditeur partagent entre eux un présent vivant dans une relation de face-à-face ou qu’ils ne partagent, par l’interposition de procédés mécaniques comme le disque, qu’une quasi-simultanéité de leur courant de conscience, importe peu. Ce dernier cas renvoie toujours au premier. La différence qui existe entre les deux démontre seulement que la relation entre l’interprète et le public est sujette à des variations d’intensité, d’intimité et d’anonymat. On comprend cela très bien si l’on imagine un auditoire constitué d’une seule personne, d’un petit groupe de personnes dans un lieu privé, d’une foule remplissant une grande salle de concert ou des auditeurs entièrement inconnus d’une exécution radiophonique ou d’un disque vendu dans le commerce. Dans toutes ces circonstances, l’interprète et l’auditeur se syntonisent l’un sur l’autre. »
  22. Comme par exemple dans les concerts réalisés par les collectifs « Sobralasolas ! » et « nnybinap », ainsi que dans le cadre des événements « nomusic » et du « Placard » (Emmanuelle Gibello). http://sobralasolas.org/
  23. Par exemple : Pedro Rebelo (« NetRooms — The Long Feedback », http://www.sarc.qub.ac.uk/~prebelo/netrooms/ ), Georg Hadju (« Net.Quintet », http://www.quintet-net.org/ ), et le collectif « Sobralasolas! » initié par Jérôme Joy, http://sobralasolas.org/ ).
  24. http://www.emf.org/tudor/ , http://www.fondation-langlois.org/flash/f/index.php?NumPage=571 , http://www.efi.group.shef.ac.uk/mamm.html , « Aus den Sieben Tagen » (1968, œuvre créée en 1969) de Karlheinz Stockhausen.
  25. Szendy P. (2001). Écoute - Une histoire de nos oreilles. Paris: Les Éditions de Minuit.
  26. During E. (2004). La Coupe, l’Écran, la Trame. In “Révolutions Industrielles de la Musique”, édité par Nicolas Donin et Bernard Stiegler, Cahiers de la Médiologie / Ircam, n° 18, (pp. 57-64). Paris: Librairie Arthème Fayard.
  27. Gould G. (1983). Les Perspectives de l'Enregistrement. In "Le Dernier Puritain — Écrits 1", édité par Bruno Monsaigeon, Paris: Fayard.
  28. Kihm C. (2004). Platinisme et Pratiques d'Amplification. In "Révolutions Industrielles de la Musique", édité par Nicolas Donin et Bernard Stiegler, Cahiers de la Médiologie / Ircam, no. 18, (pp. 123-129. Paris): Librairie Arthème Fayard.
  29. Golo Föllmer (2002). Making Music on the Net, social and aesthetic structures in participative music; Nathan Schuett (2002). The Effects of Latency on Ensemble Performance; Jörg Stelkens (2003). Network Synthesizer; Gil Weinberg (2003). Interconnected Musical Networks: Bringing Expression and Thoughtfulness to Collaborative Music; Álvaro Barbosa (2006). Displaced Soundscapes; Alain Renaud & Pedro Rebelo (2007). Networked Music Performance - State of the Art. Pour des références complètes, reférez-vous à la bibliographie.
  30. Moore S. & Place T.A. (2001). KromoZone : a platform for networked multimedia Performance. In Proceedings of the International Conference “Music without Walls? Music Without Instruments?”, De Montfort University, Leicester.
  31. « In one sense, almost all music is networked music: whenever musicians play together, their eyes and ears are connected by a complex, real-time network of aural and visual signals that have a tremendous impact on what they play and how they play it. And musicians are usually part of a second network as well, which connects them back to the composer who created the score and the listeners who hear the performance (or a recording of it). That formulation, of course, is too broad to be particularly useful. So here is a more restricted version: networked music is music in which we consciously manipulate, transform, or mediate the connections between performing musicians and/or between the composer, performers, and listeners. » (Jason Freeman, interview du 11 mars 2007 par Turbulence, http://turbulence.org/networked_music_review/2007/03/11/interview-jason-freeman/ ).
  32. « I use the term networked music to describe works in which artists consciously consider the topology and the transmission and storage mechanisms of a network, making the network integral to the conception and realization of the work. This, to me, is more important to a work’s classification than the inclusion or exclusion of technology. » (Freeman J. (2009). Storage in Collaborative Networked Art. In “Networked — a (networked_book) about (networked_art)”, édité par le site Turbulence) http://freeman.networkedbook.org/
  33. Lazzaro J. & Wawrzynek J. (2001). A case for network musical performance. In NOSSDAV '01: Proceedings of the 11th international workshop on Network and operating systems support for digital audio and video, (pp. 157-166). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/378344.378367
  34. Joy J. & Sinclair P. (2008). Networked Sonic Spaces — Locus Sonus. In Proceedings ICMC’08, International Computer Music Conference, SARC Sonic Art Research Center, Queen's University, Belfast.
  35. Renaud A. & Rebelo P. (2006). Network Performance: Strategies and Applications. SARC Belfast, NIME’06.
  36. Media without an audience d’Eric Kluitenberg; Singing without Being Together - juxtaposed music for an invisible public de Dana Rappoport.
  37. The Internet, a musical instrument in perpetual flux de Netochka Nezvanova; la notion d’organologie des dispositifs en réseau que Locus Sonus tente de développer (Networked Sonic Spaces); The Environment as a Musical Resource de Bill Fontana; The World as an Instrument de Francisco Lopez. Pour des références complètes, reférez-vous à la bibliographie.
  38. « The use of remote acoustics and the idea of exchanging acoustic spaces suggests the network acting as an extension of a closed acoustic space. The combination of several geographically displaced acoustic spaces is only possible in a networked situation. » (Renaud A. & Rebelo P. (2006). Network Performance : Strategies and Applications. In Proceedings NIME’06, “New Interfaces for Musical Expression: Network Performance”, 4-8 June 2006, Centre Pompidou, Paris)
  39. Braasch J. (2008). Telematic Music - restrictions and Advantages Compared to Traditional One-Site Music Events. Rensselaer Polytechnic Institute, In Proceedings ICMC’08, SARC Belfast, Queen’s University.
  40. Tanaka A., Tokui N. & Momeni A. (2005). Facilitating Collective Musical Creativity. CultureLab, University of Newcastle, In Proceedings of the 13th annual ACM international conference on Multimedia, “Interactive arts 1: interfaces for audio and music creation”, (pp. 191-198), Singapore. « L'union des technologies de la communication et de l'informatique permet un développement des pratiques sonores. La connectivité permise est proportionnelle à la remise en question de la géographie. Assurant du coup, l'émergence de champs d'expérience perceptive, et favorisant, peut-être, l'échange et la collaboration créative. » (Dauby Y. (2004). Paysages Sonores Partagés. (p.8), Mémoire de DEA Arts Numériques, Université de Poitiers.)
  41. Barbosa A. (2006). Displaced Soundscapes - Computer-Supported Cooperative Work for Music Applications. PhD Thesis, (pp. 84-85), Universitat Pompeu Fabra, Barcelone.
  42. Gosselin S. & Apo33 (2007). Sound mutations: from radio diffusion to radio communication. In “Radio Territories”, édité par Brandon Labelle & Erik Granly Jensen, Los Angeles : Errant Bodies. http://poulpe.apo33.org
  43. « Sonification is the use of non-speech audio to convey information data to sound ». (Kramer G., Walker B., Bonebright T., Cook P., Flowers J., Miner N. & Neuhoff J. (1999). Sonification report: Status of the field and research agenda. Tech. Rep., International Community for Auditory Display, 1999, http://www.icad.org/websiteV2.0/References/nsf.html ); et aussi, Barrass S. & Kramer G. (1999). Using sonification. In Multimedia Systems, Vol. 7, No 1, 1999, (pp. 23-31).
  44. Demersseman C. (2009). Le Flobule : un dispositif de sonification d’une captation physiologique sur le corps d’un musicien en jeu. Mémoire de fin d'études, ENS Louis Lumière, Paris.
  45. Gu X., Dick M., Noyer U. & Wolf, L. (2004). NMP - a new networked music performance system. In Global Telecommunications Conference Workshops, 2004. GlobeCom Workshops 2004. IEEE, (pp. 176-185). http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1417570
  46. Le streaming (en français : lecture en continu ou ruissellement), aussi appelée lecture en transit ou encore diffusion en mode continu ou diffusion de flux continu, désigne un principe utilisé principalement pour l'envoi de contenu en « direct » (ou en léger différé). Très utilisée sur Internet, cette technique permet la lecture d'un flux audio ou vidéo à mesure qu'il est diffusé. Elle s'oppose (ou se différencie de) à la diffusion par téléchargement qui nécessite de récupérer l'ensemble des données d'un morceau ou d'un extrait vidéo avant de pouvoir l'écouter ou le regarder.
  47. Kurtisi Z., Gu X. & Wolf L. (2006). Enabling network-centric music performance in wide-area networks. Communications of the ACM, 2006, vol. 49, no 11, pp. 52-54. http://doi.acm.org/10.1145/1167838.1167862
  48. Lazzaro J. & Wawrzynek J. (2001). A case for network musical performance. In NOSSDAV '01: Proceedings of the 11th international workshop on Network and operating systems support for digital audio and video, (pp. 157-166). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/378344.378367
  49. Sawchuk, A., Chew, E., Zimmermann, R., Papadopoulos,C. & Kyriakakis,C. (2003). From remote media immersion to Distributed Immersive Performance. In ETP '03: Proceedings of the 2003 ACM SIGMM workshop on Experiential telepresence, (pp. 110-120). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/982484.982506
  50. Lazzaro J. & Wawrzynek J. (2001). Ibid.
  51. Gu X., Dick M., Noyer U. & Wolf, L. (2004). NMP - a new networked music performance system. In Global Telecommunications Conference Workshops, 2004. GlobeCom Workshops 2004. IEEE, (pp. 176-185). http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1417570
  52. Tanaka A., Tokui N. & Momeni A. (2005). Facilitating Collective Musical Creativity. CultureLab, University of Newcastle, In Proceedings of the 13th annual ACM international conference on Multimedia, “Interactive arts 1: interfaces for audio and music creation”, (pp. 191-198), Singapore. ; et aussi : Föllmer G. (2001). Soft Music. In Crossfade – Sound Travels on the Web, San Francisco Museum of Modern Art. http://crossfade.walkerart.org/
  53. « Latency is the acoustics of the Internet » (Tanaka A. (2000). Interfacing Material Space and Immaterial Space : network music projects. In The Journal of the Institute of Artificial Intelligence of Chukyo University, Winter 2000, Toyota, Japan) (French version : Tanaka A. (2001). Relier l’espace matériel et l’espace immatériel : les projets de musique en réseau en 2000. In Dossiers de l’Audiovisuel, No. 96, INA, Bry-sur-Marne).
  54. Kapur A, Wang G., Davidson P. & Cook P.C. (2005). Interactive Network Performance : a dream worth dreaming ?. In Organised Sound, 10 (3), pp. 209-219. Cambridge : Cambridge University Press.
  55. Bongers, B. (1998). An Interview with Sensorband. In Computer Music Journal, 22 : 1, pp. 13-24, Spring 1998.
  56. Sawchuk, A., Chew, E., Zimmermann, R., Papadopoulos,C. & Kyriakakis,C. (2003). From remote media immersion to Distributed Immersive Performance. In ETP '03: Proceedings of the 2003 ACM SIGMM workshop on Experiential telepresence, (pp. 110-120). ACM Press New York, NY, USA. http://doi.acm.org/10.1145/982484.982506; Joy, J. (1998).







   
   
   
    [Edit] [History] [UP] [List of all pages] [Create page]   [Erase cookies]


1995/2020 — Powered by LionWiki 3.1.1 — Thanks to Adam Zivner — webmaster & webdesign : Jérôme Joy — Author : Jérôme Joy — Any material is under copyleft © with in-line & in-text attributions —
http://jeromejoy.org/ — Hosted by nujus.net NYC since 2007, and by The Thing NYC (between 1995-2007 — Thanks to Wolfgang Staehle and the Thing team).