On extended, boundless, vibratory and in-the-now sympathy music
http://jeromejoy.org/
|| NEWS
|| BIO
| SHOWS
| CATALOG
|| PROJE
(C)
TS
| MP3s
| CDs
| VIDEOS
|| BIBLIO
| STUDIES
| DOCUMENTATION
| PH.D.
| EDU
| COLLECTIVE JUKEBOX
| NOCINEMA.ORG
| CONCERTS FILMS
|| AUDITO
| QWAT?
|| home
| contact
|
| 🔎
|
Last changed - French time: 2024/04/18 23:20
>
Recent changes
B
I
U
S
link
image
code
HTML
list
Show page
Syntax
!!la musique à délais - raccorder des espaces Une des manières de propager les sons entre des espaces, aussi disjoints soient-ils, est l’engagement de dispositifs de streaming audio qui relaient la propagation d’un son produit dans un espace pour le restituer dans un autre. Dans le cas de l'écoute en réseau (écouter les espaces lointains, des sons et des flux distants, ''hors de notre portée'', avec des machines intelligentes, accessibles à tout moment télématiquement), mais aussi dans celui de l'écoute mobile et en plein air, l'espace d’écoute (''auditorium'') devient de plus en plus un entrelacement multi-localisé d'acoustiques et de choix de situation d'écoute (chez soi, en marchant, en voiture, en plein air, etc.) plutôt que le procès d'une œuvre dans un lieu et espace pré-fabriqué, prescrit et collectif. C'est en effet, et de manière générale, notre perception des espaces sonores, musicaux et acoustiques (nos environnements sonores, nos espaces d'écoute), qui se trouve immanquablement modifiée par ces transports de sons. L'expérience acceptée des combinaisons et hybridations entre espaces physiques et espaces virtuels, et des accès et relais, en direct ou en différé, à distance, hors de vue, ou, à proximité, rapprochée, simultanés ou différenciés, reformulent ce que nous percevons et comprenons comme notre environnement sonore. Si la musique devient ''étendue'', c’est parce qu’elle s’ouvre indubitablement au mélange des ambiances et des lieux, et qu'elle engage une situation artistique environnementale : il serait impossible de séparer les sons de la musique des résultantes acoustiques des lieux (et des espaces qu'elles traversent lorsque ses sons se propagent). Ainsi aux œuvres écoutées s'adjoignent comme parties nouvelles des œuvres leurs contextes d'écoute. Ces fabrications d' ''auditoriums'' (Internet) (à la suite des ''radio-auditoriums'' de Khlebnikov) créent des lieux communs et de nouveaux espaces publics des écoutes ensemble (même séparés), qui ne semblent pas prescrits et qui sont de plus en plus animés de productions et d'invention créatrice. Ils donnent lieu à des expériences esthétiques, environnementales et ambiantales, immersives et participatives, liées à la sensation, l'émotion et la perception d'espaces sonores qui requalifient notre champ de présence, de co-présence et d'action dans le monde (BERLEANT, 1992 ;1997 ; INGOLD, 2000). L'auditorium est essentiel pour donner la sensation et l'émotion que le monde est plus grand que ce qui est vu et que ce qui est perçu dans sa propre proximité. Ces requalifications de notre expérience dans les environnements sonores sont nécessaires dans un contexte de plus en plus technicisé, relayé, désajusté et pressurisé. Ceci induit des architectures acoustiques transparentes et des circuits invisibles des étendues sonores, et conséquemment de nos pratiques d'écoute, dont la structuration est maintenue continue, cohérente et homogène, et est reproductible et partageable. Ainsi il nous semble nécessaire de nous re-situer dans un plus grand auditorium. Celui-ci, ''élargi'' ou ''étendu'', spatialisé et transformable en plus d'être spatial, dispersant et distribué, possédant les capacités techniques de combinaisons d’espaces sonores, physiques, virtuels, entre eux, reste pourtant un espace aménagé ''rassemblant'' des auditeurs, mais dont la nature devient démultipliée : matérielle, immatérielle, dématérialisée, fermée, ouverte, fixe, temporaire, rigide, transparente, évanescente, inter-connectable, etc. Il persiste à rester malgré tout un espace sensoriel résultant d'une mise en tension entre des effets (acoustiques, interactionnels) et la réalité physique d'un dispositif. Un autre aspect relatif à l’immersion sonore concerne le fait que cette dernière résulte de sensations d’espace (par l’auditeur) plus que de l’effort de localisation des sons dans l’espace d’écoute : écouter une musique est aussi écouter en même temps les résonances de l’espace dans lequel elle est jouée. De nouvelles pratiques d'auditeur et de création explorent sans cesse les dimensions, les volumes et les périmètres de ces auditoriums, ainsi que leur ductilité et plasticité (variabilité), et réorganisent continuellement leurs structures et leurs configurations spatiales et temporelles de ceux-ci. Sans être antagonistes aux scènes et pratiques existantes, elles annoncent une rupture de la division auditeur/scène du modèle spectatoriel voire proposent l'accrétion des rôles jusqu'ici séparés : l'artiste-auditeur, l'auditeur-artiste (KAPROW, 1966 ; GOULD, 1966). Le concept d'auditorium concernerait ainsi tout espace dont la configuration et la construction font appel à un aménagement spécifique pour l'écoute de productions sonores et musicales et à une disposition repérable des auditeurs. Notre hypothèse consiste à avancer la notion d'auditorium comme étant 1) l'espace continu (pouvant être constitué d’enchaînement d’espaces sans coutures) à notre portée des étendues sonores (tel un sensorium constitué d'un auditorium technique ramenant vers nous les sons hors de notre portée), 2) l'espace de la co-présence d'auditeurs (à la fois, producteurs, récepteurs) (KAPROW, 1966) et 3) celui du jeu de modulations permanentes et de re-configurations continuelles de nos écoutes et de notre sphère aurale dans ces flux et circuits (expériences environnementales ambiantales musicales et esthétiques) — un enjeu sera d’examiner si pour un auditorium (en tant que ''circuit''), nous pouvons parler de ''facture'' instrumentale (d’organologie) et de ''lutherie'' d'auditeur. Aux déplacements dans des lieux d'écoute se sont ajoutées des connexions (il faut se connecter pour écouter) et des interconnexions entre des espaces acoustiques, électroniques et télématiques (notamment par le biais des techniques de streaming), créant ainsi des circuits d'écoute dont la structuration n'est pas d'emblée apparente. Ainsi l’Internet est devenu un espace hypothétique composé et constitué d'auditoriums parmi tous les autres lieux sociaux et architecturaux de l’écoute. L’enjeu de tels auditoriums est d’envisager et de considérer à présent des productions musicales idiomatiques, qui y circulent, qui y réalisent et qui s’y réalisent. Dans le cas de la musique en réseau, l’intérêt n’est pas d’apprécier la performance technologique de la suppression de la distance et des effets de co-présence, pour approcher la réplique “réaliste” d’un concert grandeur nature (un exploit toujours recommencé et un objectif inatteignable), mais bien plutôt de prendre en compte les espaces traversés (provenance, télématique, destination) comme réactifs, acoustiquement et électroacoustiquement. Saturer ces espaces (par le bruit, par le flux) pemet de faire moduler un autre “bruit” de cet écosystème : celui d’une acoustique virtuelle de l’espace électronique et télématique (''téléacoustique''). En parallèle, cet excès permet de produire des écarts avec la standardisation et la normalisation présents dans ce système, par l’apport des pratiques de création aux plus récentes technologies. Dans un même élan, il n’y a pas lieu de désigner un nouveau genre, celui de la musique en réseau, mais les dispositifs de celle-ci et ce qui s’y produit permettent de cerner et d’élucider les points les plus actifs et les plus questionnants de la musique actuelle et dans les pratiques audio en général, quant aux régimes expérimentaux d’écoute et de productions sonores et musicales liés à des formes de médiatisation, de spatialisation, d’indétermination, de participations, de co-présences et d’actions en syntonie (que la distance soit courte ou incommensurable), engagées dans les réactions d’espaces. Dans une opération analogue à l’ ''intonation juste'' en musique (les résonances et harmoniques naturelles), il s’agirait d’engager une ''intensification juste'' (par des intensités sonores excitant des acoustiques naturelles) qui adjoindrait au son transporté d’un espace à un autre des propriétés caractéristiques des espaces virtuels qu’il traverse lors de ce transport et de cette propagation : la coloration, la rugosité, la variabilité continues liées à la combinaison des acoustiques et à leurs conditions distinctives. Ces propriétés liées à la synchronisation / désynchronisation / resynchronisation, à la syntonisation (ajustements ''ad-hoc'', locaux et individuels) et à la perception de co-présence, propres aux écarts, aux espacements et aux simultanéités (sonores) se rapportent à la ''field spatialisation'', terme forgé (au sein de Locus Sonus) pour désigner la ''spatialisation de terrains'' lorsque le son est amené à se propager et à circuler dans un enchaînement d’espaces de différentes natures (acoustiques, physiques, virtuels, électromagnétiques, etc.) et par différentes opérations (streaming, audification, sonification, etc.). L’espace télématique intermédiaire a ses propres caractéristiques (acoustiques) dépendantes des évolutions et des structures technologiques dans la résolution des effets de distance (la plupart étant produits par le système lui-même) et faisant apparaître une “matérialité” et une “granularité” sonores : temps de latence (délais), bufférisation, bandes passantes, numérisation (compression / décompression), commutation (empaquetage, empilement), synchronisations d’horloges, feedback, etc. Si la faisabilité technique d'écouter des espaces sonores lointains avec des machines intelligentes, — qu’elles que soient les imperfections —, ne semble pas nous perturber, comment de tels systèmes créent-ils, préservent-ils et font-ils persister des continuums de situations, sensoriels, acoustiques, communicationnels, et esthétiques, nécessaires à l’expérience ? Passer du registre planétaire (Internet) — comme c’est le cas avec les projets ''Locustream'' (Locus Sonus), ''Global String'' (Tanaka & Toeplitz, 1998), ''Silophone'' (The User, 2000),'' City Links'' (Amacher, 1967), ''Conspiracy 8'' (Mumma, 1969), ''Four Decades of Composing and Community'' (Oliveros, 1991), ''Netrooms The Long Feedback'' (Pedro Rebelo, 2008), ''Le Poulpe'' (Apo33, 2004), ''BOT'' (Apo33, 2009) ou bien encore dans les nombreux exemples d’orchestres et d’événements en réseau : ''The Hub'', ''Sensorband ISDN'', ''NoMusic'', ''Great International Audio Streaming Orchestra (Giaso)'', etc. —, à celui ionosphérique (radio et électromagnétisme) jusqu’au registre interplanétaire, engage des reconfigurations de nos espaces d’écoute et de productions sonores et musicales dans des intensifications nouvelles. Proposer de passer de l'écoute planétaire à l'écoute interplanétaire questionne encore davantage les notions de continuité et de simultanéité — lorsque l’espace de transmission et d’interconnexion, tel l’Internet aujourd’hui, reste soumis à des conditions de discontinuités, d’interruptions, etc. C’est le cas du projet “Synscape” que nous menons dans le cadre de recherche-création liée aux Auditoriums Internet et à l’Auditorium Terre-Mars (Université Laval Québec, depuis 2010) à propos d’espaces d’écoutes dans des milieux extrêmes (il n'y a pas plus séparé et disjoint que deux planètes ; et le raccord à une acoustique ''mal-audible'' via un espace relais surdimensionné entre les deux planètes n’est pas sans couture). Ce projet est une anticipation, scientifique, technique et artistique, et une spéculation donnant lieu à des potentiels de réalisation artistique simulés ou répliqués partiellement dans le cadre de la musique en réseau. Le point de départ du projet “Synscape” correspond à la première opération prévue par les agences astronautiques de la NASA et de l'ESA dans les cinq prochaines années concernant la pose d'un microphone à la surface de Mars (mission ExoMars). Il s'agira dans un premier temps d'une extension de notre environnement sonore par une jonction acoustique télématique entre les deux planètes. La seconde opération concernera l’envoi de la première mission humaine sur Mars à l’horizon 2025-2030, et donc de la première communauté humaine qui sera séparée aussi longtemps (de 30 à 36 mois) de la communauté terrienne, sans possibilité de retour anticipé, et à une distance aussi grande (entre 145 fois et 1000 fois la distance Terre-Lune, selon l’orbite martienne). Le projet s’appuie sur les conditions et les problèmes sensoriels de discontinuité (dans l’habitacle du voyage et l’habitat martien, entre confinement et milieu inhospitalier), de coupure et d’isolement (avec la Terre) et relatifs à la discontinuité des espaces. Envisager la résolution de ces problèmes dans le cas d'une spatialisation et d'un éloignement extrêmes (interplanétaires), autant du côté des terriens que des ''martiens'', demande à résoudre les déficits de synchronisation-désynchronisation, de continuité et de co-présence, et à trouver des solutions de préservation de la cohérence et des continuums sensoriels et esthétiques (''pour faire auditorium'') : 1) lors du voyage : entre l'espace proprioceptif (où nous sommes), l'espace rétrospectif (d'où nous venons) et l'espace prospectif (où nous allons, ou où nous projetons d'aller) ; 2) lors du séjour sur Mars ou de la localisation sur Terre : entre l'environnement sonore proche (dans lequel nous sommes en immersion), et l'environnement lointain (auquel nous sommes connectés). Ceci demande de prendre en compte les contraintes de liaisons acoustiques propres à l'espace intermédiaire (radio-électronique) entre les deux planètes et soumis à l’invariabilité de la vitesse de la lumière. Celles-ci comprennent : * les effets de délai (entre 4 et 22 minutes de retard entre émission et réception, ce qui pose pour l'instant un problème aux scientifiques en ce qui concerne l'optimisation et les vitesses de réaction entre interlocuteurs (spationautes, terriens) en cas de difficulté à résoudre en commun et afin de préserver un lien familier de communication entre les deux communautés), * de rugosité (artéfacts de communication), etc., ainsi que les conditions spécifiques à l’environnement acoustique martien auquel nos oreilles ne sont pas adaptées : * viscosité et amortissement acoustiques — les sons d’intensité normale sont inaudibles à plus de trois mètres —, * ''depitch'' — une voix d’enfant s’entend comme une voix d’adulte —, * impossibilité pour l’humain d’être à tête nue et à oreille nue — nécessité d’augmenter la perception de son propre et proche environnement par des solutions techniques, etc. Autant les images reçues de Mars nous montrent une géomorphologie (reliefs), des paysages (ciel, sol, distances, soleil, ombres, etc.) et une météorologie (vents, etc.) qui nous donne la sensation d’une familiarité et de similitudes, autant la première réception microphonique provenant de Mars pourra nous fournir une impression complètement inconnue et étrangère. Agir dans un milieu extrême pose indubitablement la question de la présence humaine dans un environnement hostile, celle de l'expérience directe ou médiée d'actions menées dans un tel environnement, ainsi que celle des moyens de perception qui sont mis en œuvre et à disposition, pour comprendre et interagir avec celui-ci. Être à l'écoute d'un environnement et d'une ambiance sonore sollicite l'attention et la participation (et la syntonisation comme action de perception voire de création) et est nécessaire pour préserver son immersion dans un milieu agissant et polysémique (avec son animation propre). Dans un contexte confiné et contrôlable (habitacle), inhospitalier et mal-perceptible (environnement martien), tel celui d'un environnement extrême, l'attention, la syntonisation, la sollicitation et la participation sont capitales pour la conduite humaine (ainsi la réalité est différente de l'imagination afin d'éviter une situation solipsiste). D’autre part, l’extension de notre “sensorium” et l’élargissement de notre environnement sonore (par sa porosité avec d’autres environnements et d’autres milieux), à partir de la pose du premier microphone sur Mars, tout autant qu’il en est aujourd’hui avec les captations électromagnétiques sonifiées ou audifiées reçues d’artéfacts interstellaires ou de réseaux “bruyants” invisibles rendus sonores, nous intiment à continuellement raccorder ces ambiances et ces espaces pour les insérer dans notre cohésion perceptive et sensorielle afin d’en faire l’expérience. Notre intérêt n’est pas de résoudre “scientifiquement” ce type de problèmes, mais de les prendre comme leviers exemplaires de questions déjà présentes (dans la musique) : 1) l’acousmatique débordant le confinement sonore d’un espace (surtout lorsque celui-ci est inter-connecté à d’autres espaces), 2) la microphonie comme mode de captation de modulations sonores (et non de phonographies offrant des “points de vue”), 3) les artéfacts et les effets de distance (délais, etc.) dans l’interconnexion d’espace comme matériaux et structures d’une musique idiomatique (et non pas comme limites à résoudre pour optimiser le support de communication — verbale par exemple), qui serait dans notre cas une production terremartienne ou bien marsterrienne. Ce type de projet n’est en fin de compte que l’amplification et l’intensification des conditions actuelles des dispositifs de streaming et de dispositifs de la musique en réseau, à partir d’une modélisation extrême des conditions d’un auditorium Terre-Mars. Ainsi nous envisageons dans le projet “Synscape” un dispositif composé de deux systèmes, l’un reproduisant la situation du voyage et de la navigation (au long cours) dans un délai qui s’étend inexorablement, et l’autre, superposé, reprenant les conditions de délais entre les émetteurs et les récepteurs (entre 4 et 22 mn), et d’acoustique modifiée propres à un environnement non perceptible et à un espace intermédiaire dit ''anacoustique'' (l’espace de transmission) dans lesquels les sons se propagent. Le premier système envisage le raccordement de trois espaces — un espace de provenance (dans notre exemple, la Terre), un espace de voyage (l’habitacle), et un espace de destination (Mars) — par la microphonie à partir d’un processus de torsion, à l’image de mise en pesanteur graduelle à laquelle seront soumis les spationautes lors du premier voyage vers Mars (selon une acclimatation : partir en pesanteur terrestre et au long du voyage passer évolutivement en pesanteur martienne — ⅓). Cette torsion est accessible sur un dispositif d’écoute : écouter Mars au départ de la Terre, et écouter la Terre à l'arrivée sur Mars ou en étant sur Mars ; écouter Mars depuis la Terre, écouter la Terre depuis Mars ; ou bien encore d'imaginer des syntonisations paradoxales : écouter la Terre avec l'acoustique de Mars et vice-versa, ainsi que toutes les combinaisons de mixages et de dosages entre les captations des deux espaces. Ce mode de composition d’ambiances peut se rapporter à notre pratique actuelle de “co-présence” avec l’Open Skype™ (une écoute réciproque sans communication verbale) ou encore avec le streaming de microphones ouverts (Locustream, Locus Sonus). L’intention n’est pas de jouer du réalisme des captations microphoniques (quoique la fictionnalisation produite par l’imagination lors d’écoutes de ''field recordings'' ou de microphones ouverts streamés, fait partie des effets acousmatiques), puisque de toute manière les captations sur Mars seront mal-audibles à cause de l’acoustique martienne et qu’il ne s’agit pas de ''terraformer'' cette acoustique. Dans le dispositif à réaliser à partir de cette modélisation (sur Terre donc), l’intérêt est d’utiliser les modulations sonores générées par ces captations et réalisées à partir d’analyses fines — l'allure des sons, leur intensité, leur timbre, etc., ainsi que des algorithmes modélisés sur les caractéristiques de réponses et de propagations acoustiques en mode terrestre et en mode martien —. L'utilisation de modulations sonores, privilégiée par rapports aux captations microphoniques “brutes”, pourra permettre de mettre en place des principes et des hypothèses de ''musicalisation'' plus riches, harmoniquement et “intensitificationnement” parlant, selon les critères d’ ''intonation juste'' et d’ ''intensification juste'' que nous avons avancés plus haut. De plus l’ensemble sera plus pertinent dans un raisonnement esthétique : « étendue sonore » versus « paysage sonore ». Ce sont des types analogues de processus et de musicalisation que nous avions pu réaliser dans ''picNIC'' en 2001-2002 (un système quasi-cybernétique en temps réel de musicalisation à partir d’inputs sonores performés, réalisé avec Fabrice Gallis et Formanex). Le second système de “Synscape” sera basé sur la prise en compte des délais Terre-Mars comme structure de productions et de générations sonores et musicales. Ainsi l’enjeu est d’imaginer des productions musicales idiomatiques (terremartiennes et marsterriennes, et à la vitesse invariable de la lumière) comprenant et constituées à partir de tels délais (entre émetteur et récepteur, entre deux performeurs, entre deux événements performés, etc.) à l’image des retards de communication entre les deux planètes. Une question pourra être par exemple : comment envisager une musique en réseau avec des musiciens et des auditeurs distribués dont les délais entre l'émission et la réception oscilleraient entre 4 et 22 minutes ? Comment cette musique pourra se constituer et se produire à partir de ces délais ? Le “corps” même de ces délais (temporels et d’espaces) pourraient laisser imaginer un espace “acoustique” granulaire produisant des matériaux sonores inédits, bruités et résiduels, (ainsi que destinés à être joués) : un espace qu’il s’agirait de saturer, de faire osciller, et d’exciter pour en produire des réactions et des artéfacts. Des projets antécédents font office de références : le projet ''Echoes from the Moon'' réalisé par Pauline Oliveros en 1987, avec Scot Gresham-Lancaster (The Hub), utilisait comme acoustique virtuelle le délai de transmission d'un signal sonore envoyé sur et réfléchi par la Lune ; de même les projets ''Global String'' (Tanaka, Toeplitz, 1998), et la série ''T0P0LOG1ES'' (de Art of Failure, 2011) utilisant les propriétés résultantes de l’espace intermédiaire Internet dans la transmission d’un signal. Entre projets communicationnels et projets utilisant des règles (plus ou moins arbitraires) de sonification — comme ''Hour Angle'' (John Eacott, 2010) et ''Sun Rings'' (Terry Riley, 2002) —, “Synscape” cherche à discerner des musiques idiomatiques propres donc aux acoustiques et artéfacts sonores virtuels des espaces télématiques à grands délais, tout autant que des pratiques d’écoute qui s’y développeraient. Ainsi l’effort de révéler et d’activer, par la musique à intensités et la musique à délais, des combinaisons d’espaces et d’environnements sonores, aussi invisibles ou aussi distants soit-ils, participe à une musicalisation (et donc une création que chacun initie et expérimente) élargie et étendue, oscillatoire et vibratoire, sociale et expérientielle (dans l’engagement d’une esthétique environnementale). {br}{br}{br}
Password
Summary of changes
↓
↑
العربية
Čeština
Deutsch
Schweizerdeutsch
English
Esperanto
Español
Suomi
Français
עברית
Hrvatski
Magyar
Italiano
Nederlands
Português
Português brasileiro
Slovenština
臺灣國語
downloads
> Download mp3s
> Download videos
> Download texts
> Academia.edu
[
Edit
] [
History
]
[UP]
[
List of all pages
] [
Create page
] [
Erase cookies
]
1995/2020 — Powered by
LionWiki 3.1.1
— Thanks to Adam Zivner — webmaster & webdesign : Jérôme Joy — Author : Jérôme Joy — Any material is under copyleft
©
with in-line & in-text attributions —
http://jeromejoy.org/
— Hosted by
nujus.net
NYC since 2007, and by
The Thing
NYC (between 1995-2007 — Thanks to
Wolfgang Staehle and the Thing team
).