On extended, boundless, vibratory and in-the-now sympathy music
http://jeromejoy.org/
|| NEWS
|| BIO
| SHOWS
| CATALOG
|| PROJE
(C)
TS
| MP3s
| CDs
| VIDEOS
|| BIBLIO
| STUDIES
| DOCUMENTATION
| PH.D.
| EDU
| COLLECTIVE JUKEBOX
| NOCINEMA.ORG
| CONCERTS FILMS
|| AUDITO
| QWAT?
|| home
| contact
|
| 🔎
|
Last changed - French time: 2011/04/25 04:00
>
Recent changes
B
I
U
S
link
image
code
HTML
list
Show page
Syntax
!!!2.2. L’orchestre en réseau Tim Perkis{footnote}Dans le texte inclus dans le livret du cd « Wreckin’ Ball » de The Hub, Artifact Recordings 1008.{/footnote}, un des six compositeurs de « The Hub », propose de prendre pour analogie, afin de décrire un ensemble de musiciens “inter-connectés” (ou en réseau), l’exemple des gamelans, ensembles intrumentaux javanais et sundanais et balinais (et par extension, le « gong » balinais{footnote}Et le “reyong” (ou “reong”) qui est un instrument dans le gamelan gong kebyar, joué par quatre instrumentistes en même temps.{/footnote}), représentant un seul instrument musical constitué de plusieurs parties. De même, Dana Rappoport, dans son article « Chanter sans être ensemble — Des musiques juxtaposées pour un public invisible » (Rappoport, 1999){footnote}« Certains rituels indonésiens impliquent l’exécution de plusieurs musiques à la fois dans le même espace et dans le même temps : ainsi, plus de six chœurs peuvent chanter côte à côte mais séparément. Alors que ces musiques ne font l’objet d’aucune coordination ryhtmique, elles sont pourtant exécutées simultanément : elles sont juxtaposées. Cette juxtaposition est fixe, durable et intentionnelle. » (Rappoport D. (1999). ''Chanter sans être ensemble — Des musiques juxtaposées pour un public invisible''. In “L’Homme”, Revue Française d’Anthropologie, no. 152, (pp. 143-162). Paris : Éditions EHESS){/footnote}, souligne un second aspect très particulier de certaines musiques indonésiennes, celui de parties, jouées par des groupes en proximité, et à la fois, superposées, indépendantes, séparées et simultanées (“polymusiques”) : c’est-à-dire de plusieurs sources qui émettent simultanément sans présence de récepteurs (sans une audience externe). Dans la musique occidentale, l’orchestre, en tant qu’ensemble de musiciens exécutant une musique composée, joue “d’une seule voix”, chaque instrumentiste, associé ou non à sa famille d’instruments selon qu’il s’agit d’un orchestre classique ou contemporain, se synchronisant par la battue et la direction du chef d’orchestre. L’orchestre dès le XVIIIème siècle est conçu comme un “instrument” qui est ajusté pour fusionner les timbres, chaque pupitre respectant “des rapports de puissance précisément définis” (Harnoncourt, 1982[1984]){footnote}Harnoncourt, Nikolaus (1982[1984]). ''Le Discours Musical — Pour une nouvelle conception de la musique (Musik als Klangrede — Wege zu einem neuen Musikverständnis)''. Traduit par Dennis Collins, (p. 151). Paris: Gallimard.{/footnote}. La répartition des puissances sonores et l’instrumentation jouent un rôle prépondérant dans l’équilibre final de la réalisation d’une œuvre{footnote}Aspect souligné par Paul Hindemith, dans son discours prononcé lors du festival Bach à Hambourg, le 12 septembre 1950. (Cité par Nikolaus Harnoncourt, Ibid, (p. 152)){/footnote}. Cette répartition a évolué au cours de l’histoire, tout autant que la facture des instruments et les modes de jeux instrumentaux, en s’adaptant aux espaces acoustiques des salles et lieux dédiés aux concerts. En effet, les propriétés de réverbération ou encore d’homogénéité de ces espaces ont une action sur la perception de la fusion des timbres et sur la distinction de phrases et traits musicaux. Par exemple, aux XVIIème et XVIIIème siècles, du fait des dallages, de la hauteur des salles et des revêtements de marbre, la réverbération était bien plus importante”{footnote}Harnoncourt, Nikolaus (1982[1984]). ''Ibid.'' p. 153.{/footnote} que dans les salles de concert modernes. Par ailleurs, la conception romantique et monumentale qui a suivi a induit des effets de ralentissement de tempo, qui, liés aux espaces acoustiques de très faible réverbération, favorisent l’acuité de “couleurs” progressives de masses sonores, résonant de l’ensemble de l’instrument orchestral. La musique contemporaine au XXème siècle, par le déploiement mutiple de formations instrumentales issues de la musique de chambre, a renoué avec un orchestre/instrument dont chaque partie peut être organique et “distincte”, jusqu’à des organisations spatiales spécifiques appelant des redéfinitions de la place du public et de celle, présente ou non, de la conduite dirigée. Les évolutions instrumentales, électroniques et électroacoustiques, puis numériques, intriquées à celles compositionnelles, sont allées de pair avec ce développement des écritures et jeux musicaux liés à l’espace et aux répartitions spatiales jusqu’à des virtualisations d’espaces (Di Scipio, 1998; Vidolin, 1993; Desloges, 2001){footnote}Di Scipio A. (1998). ''El sonido en el espacio, el espacio en el sonido (Le son dans l’espace, l’espace dans le son)''. Doce Notas Preliminares, no. 2, pp. 133-157, Décembre 1998; Vidolin A. (1993). ''Musica nello spazio''. In "Il Giornale degli artisti", no. 4, (pp. 4-5).Venezia; Desloges, Sébastien. (2001/2002). ''L’Espace de l’Écoute - L’Écoute de l’Espace''. Mémoire de maîtrise d’Histoire de l’Art, Université de Rennes.{/footnote}. Les hybridations d’espaces, superpositions et intrusions d’un espace dans un autre, proposent d’autres « continuums », fondés sur la segmentation et la répartition des sources sonores jusqu’à une perception d’espaces virtuels au-delà des murs de la salle de concert, offrant ainsi un renouveau des expériences esthétiques{footnote}''« La distribution dans l’espace devient une nécessité structurelle. ^[...^] Nous devons étendre encore plus l’idée d’une “continuité spatiale réelle” à l’intérieur de laquelle les agrégats sonores sont projetés.'' (Boulez, Pierre (1955). ''Á la limite du pays fertile''. In Die Reihe, I) (Cité par Di Scipio, Agostino (1998), ''Ibid.''. pp. 139-140.){/footnote}. La spatialisation sonore crée ainsi une nouvelle homogénéité de l’espace commun et collectif dans lequel se trouvent les musiciens et les auditeurs, tout en questionnant la validité d’une idéalité des points d’écoute. En cela une autre conscience vient rejoindre celles déjà impliquées dans l’écoute musicale : écouter une musique est aussi écouter en même temps les résonances de l’espace dans lequel elle est jouée. De la variabilité des acoustiques d’un lieu au travers de systèmes de traitements sonores et de géométries architecturales, nous sommes passés à la pluralité des acoustiques simultanées en reliant des espaces physiques (et virtuels) entre eux{footnote}Un exemple cité par Agostino di Scipio est sur ce point très éclairant : ''« “Noms des Airs” (1994) de Salvatore Sciarrino [...] est une œuvre intéressante, ne serait-ce que pour exister, dans sa première - et jusqu’ici unique — exécution, comme une sorte de musique “parasitaire”. Sciarrino y recueillait avec des microphones le son de l’exécution orchestrale d’une autre composition (« La Favola di Orfeo » de Casella, jouée dans un théâtre normal), la soumettait immédiatement, pendant ce même concert, à plusieurs techniques d’élaboration (avec l’aide d’Alvise Vidolin et Nicola Bernadini), et la diffusait finalement au moyen de haut-parleurs situés dans des lieux souterrains que les auditeurs pouvaient visiter. ^[...^] Dans ce cas, le contact avec l’espace spécifique ^[dans les profondeurs souterraines des “Cantine del Redi” à Montepulciano^] est une partie essentielle de l’idée compositionnelle : le compositeur veut occuper un lieu avec des sons et nous parler d’eux en utilisant les résonances de ce même lieu. Une telle opération peut se considérer comme une “installation musicale” : les sons proposés prennent un sens, non en eux-mêmes, mais du fait de résonner dans un lieu spécifique, dans une contexte architectonique particulier. »'' (Di Scipio A. (1998), ''Ibid.''. pp. 146-147.). -- « Noms des Airs », ou « Una discesa nel suono d’Orfeo », a été créée le 31 juillet 1994 lors des 19èmes Cantiere Internazionale d’Arte à Montepulciano, avec la collaboration du Centro Tempo Reale de Florence. Á lire aussi : Vidolin A. (2005). ''Percorsi sonori di un teatro immaginario. Da “Noms des Aires” a “Lohengrin II” di Salvatore Sciarrino''. In “Rivista di Analisi e Teoria Musicale - GATM”, “Il suono transparente - Analisi di opere con live electronics”, édité par Andrea Cremaschi et Francesco Giomi, XI no. 2, LIM Lucca, 2005, (pp. 89-109).{/footnote} et en répartissant les sources sonores (dont les musiciens) dans ces espaces qu’elles excitent de manière significative jusqu’à ce que ces résultantes d’espaces soient constitutives de la musique même, de sa construction à sa réalisation{footnote}Ce que l’équipe Locus Sonus a appelé « Field Spatialisation », la “spatialisation de terrains” ou spatialisation ambulatoire : ''« Les problématiques qui s’ouvrent avec cette notion de Field Spatialization permettent de mieux interroger et discerner les dimensions impliquées dans les pratiques sonores d’espace et en réseau. Elle met à jour un séquencement des mises en espace articulées à des distances et des terrains : de la diffusion sur haut-parleurs dans un espace local à celle sur haut-parleurs HF dans un périmètre plus large (outdoor), au streaming entre des espaces disjoints et distants, jusqu’à des innervations de diffusions et d’acoustiques entre espaces physiques et espaces virtuels. »'' (Joy J. & Sinclair P. (2009). ''Les Espaces Sonores en Réseau — Pratiques de la recherche en art — Locus Sonus''. In “Recherche & Création — Art, Technologie, Pédagogie, Innovation”, édité par Samuel Bianchini, pp. 122-139. Paris : Éditions Burozoïque / Les Éditions du Parc, École Nationales Supérieure d’Art de Nancy), http://locusonus.org/.{/footnote}. L’instrument, au sens global du terme, devient composé d’espaces et d’acoustiques différenciées. Le développement de l’informatique a permis d’optimiser les interactions instrumentales et les effets virtuels, ainsi que de faciliter le transport en temps réel d’un point à un autre de données numériques, qu’elles soient des données de contrôles ou des données sonores. Au milieu des années 90 et au début des années 2000, ceci devient réalité à une échelle disons planétaire par la mise en place d’orchestres distribués et inter-connectés par le réseau Internet : les premiers exemples de concerts orchestraux en réseau se fondent sur une répartition des musiciens et du chef d’orchestre, comme le concert du GRAME-EOC music ensemble en 1996 entre Genève (musiciens) et Bonn (chef d’orchestre) pour jouer « Dérive » de Pierre Boulez, et celui de « l’Ode à la Joie » de Beethoven exécuté par Seiji Ozawa à Nagano avec des chœurs répartis sur les cinq continents. Il est à remarquer que les systèmes de musique en réseau favorisent des performances ou “téléconcerts” de musique “live”, liée à des pratiques de composition en direct et d’improvisation. Dans un dispositif de musiciens en réseau, de surcroît lorsque ces performeurs sont aussi compositeurs et improvisateurs{footnote}Il faut se rappeler que dans la musique jusqu’au XVIIIème siècle, l’improvisation est inséparable de la pratique musicale.{/footnote}, l’interconnexion en réseau apparaît pour chacun, d’une part, comme une extension de sa propre configuration instrumentale, et d’autre part, comme c’est le cas dans « The Hub », en tant qu’un constituant de l’instrument consistant en la jonction et l’inter-opérabilité entres les configurations distantes et disjointes. Cette inter-opérabilité peut être fonctionnelle, c’est-à-dire qu’elle permet l’interaction et le contrôle de paramètres d’un performeur à un autre ou aux autres, ou, bien encore, elle est liée à des retours d’écoute qui viennent influencer les jeux de chaque performeur; dans les deux cas, aucun performeur n’est en mesure de contrôler le résultat final et collectif et l’évolution de cette musique jouée en réseau. Chaque exécution peut être alors différente et le nombre d’interactions possibles est infini, selon le nombre de performeurs, de paramètres mis en interaction, et de règles de jeu (ou protocoles) mises en place par les acteurs de l’orchestre. Un autre pas décisif est pris lorsque le public auditeur peut agir directement sur le processus musical en cours : c’est le cas du « KromoZone Intermedia Performance System » créé en 2000 par Timothy Place et Stephan Moore lors de la National Conference for the Society of Electro-Acoustic Music à Denton, Texas (Place & Moore, 2000){footnote}Place T.A. & Moore S. (2000). ''The KromoZone Intermedia Performance System''. In Procedings of the annual conference of the Society for the Electro-Acoustic Music, Denton, Texas, Mars 2000.{/footnote}. Á l’aide d’ordinateurs placés face à la scène, les auditeurs peuvent manipuler sur les écrans des curseurs, boutons et “controllers” qui agissent et modifient des paramètres prédéfinis des instruments informatiques joués par les musiciens sur la scène. Dans ce cas, l’orchestre s’étend aussi aux auditeurs par le jeu interactif de décisions prises par eux et par les musiciens. Cet « orchestre du XXIème siècle » (Gosselin & Apo33, 2004){footnote}Gosselin, Sophie & Apo33. (2004). ''L'Orchestre au 21ème siècle''. In Revue Volume ! n°3, 2004.{/footnote} est construit sur un instrumentarium qui implique un renouvellement des rôles de chaque acteur (compositeur, interprète, auditeur) en leur attribuant des modes opératoires non accessibles jusqu’à aujourd’hui, et qui réhausse la partipation des propriétés spatiales dans la musique même. Les conditions propres d’un concert instrumental traditionnel concernant les interactions entre musiciens liées à l’écoute, aux perceptions visuelles et aux effets proprioperceptifs, doivent être examinées dans le cas d’un “orchestre” en réseau pour vérifier les effets significatifs que leur absence ou modification entraine dans un concert distribué. Cet orchestre le plus souvent se trouve appareillé de systèmes vidéo, de connexions télématiques haut-débit et de logiciels de communication textuelle, afin d’intensifier les degrés d’interactions entre les musiciens. Par ailleurs, les conditions de fusion timbrale et de synchronisation étaient auparavant liées uniquement aux paramètres de distance et de réverbération acoustique de l’espace du concert (les réflexions acoustiques); dans un orchestre en réseau, il est nécessaire de prendre en compte les temps de retard (“delay” et “latency”) caractéristiques du dispositif de communication en sus des colorations dûes aux superpositions des espaces inter-connectés. Dans ce cas, les effets de retard ne sont plus seulement acoustiques mais aussi télématiques. {br}{br} {br}{br} ---- {html} <TABLE width="100%"><TR><TD ALIGN="left"> ← <A HREF="index.php?page=TÉLÉMUSIQUE - 2.1. Instrumentarium"><small>2.1. — Un instrumentarium ?</small></A></TD><TD ALIGN="center"> <A HREF="index.php?page=TÉLÉMUSIQUE"><small><b>Sommaire</b></small></A></TD><TD ALIGN="right"><A HREF="index.php?page=TÉLÉMUSIQUE - 2.3. Attention et conscience"><small>2.3. — L’attention et la conscience inter-active</small></A> →</TD></TR></TABLE> {/html} ---- {br}{br}{br} ---- {plugin:FOOT_NOTES}
Password
Summary of changes
↓
↑
العربية
Čeština
Deutsch
Schweizerdeutsch
English
Esperanto
Español
Suomi
Français
עברית
Hrvatski
Magyar
Italiano
Nederlands
Português
Português brasileiro
Slovenština
臺灣國語
downloads
> Download mp3s
> Download videos
> Download texts
> Academia.edu
[
Edit
] [
History
]
[UP]
[
List of all pages
] [
Create page
] [
Erase cookies
]
1995/2020 — Powered by
LionWiki 3.1.1
— Thanks to Adam Zivner — webmaster & webdesign : Jérôme Joy — Author : Jérôme Joy — Any material is under copyleft
©
with in-line & in-text attributions —
http://jeromejoy.org/
— Hosted by
nujus.net
NYC since 2007, and by
The Thing
NYC (between 1995-2007 — Thanks to
Wolfgang Staehle and the Thing team
).