On extended, boundless, vibratory and in-the-now sympathy music

http://jeromejoy.org/


  || NEWS                 || BIO   | SHOWS   | CATALOG                 || PROJE(C)TS   | MP3s   | CDs   | VIDEOS                         || BIBLIO   | STUDIES   | DOCUMENTATION   | PH.D.   | EDU                 | COLLECTIVE JUKEBOX   | NOCINEMA.ORG   | CONCERTS FILMS   || AUDITO   | QWAT?                   || home   | contact  |     |    🔎  |

  Last changed - French time: 2013/08/07 04:00     > Recent changes

 


ProjectsIndexAlphaProjectsIndexChrono





../files/articles/synema/10.jpg../files/articles/synema/2.jpg../files/articles/synema/3.jpg../files/articles/synema/4.jpg../files/articles/synema/5.jpg../files/articles/synema/7.jpg../files/articles/synema/8.jpg../files/articles/synema/9.jpg
« Tout ce qui bouge sur un écran est du cinéma. » (Jean Renoir)« Everything that moves on a screen is cinema. » (Jean Renoir)




SYNEMA(Edit)

2013(Edit)


WWW site : http://nocinema.org/synema/


Presentation(Edit)

two to four live distant locations in time —
live video webcams & live sound webmicrophones —
playing the now —
live generative & (a)synchronous cinema composed with live selections from various worldwide locations & ambiances —



Synema is an online app issued from the nocinema.org project. The Synema process applies generative principles to live video and audio fluxes selected from all around the globe. Thus the system on the server is generating series of live cinema by assembling live video feeds and live sound selections with the help of webcams and ‘streaming microphones’. Networked locations and ambiances are creating fortuitous synchronicities based on synchronisations and a-synchronisations resulting from the on-the-fly ‘montage’ by the app on the server. Sound originates from live streaming microphones located in Germany, UK, Columbia and France, and are maintained by collaborators (Locustream project by Locus Sonus). Streaming video shots are real time fragments of webcam feeds located in various places selected by the app. Video fluxes are slightly treated (framing, magnification, addition of panning shots, crossfades to black, etc.) in real time and are sometimes combined through superimposition and juxtaposation effects involved into the final ‘montage’. Filming skies and horizons becomes an opportunity to create a new kind of cinema using webcams and avoiding displaying information related to locations or to security aspects. Synema interpenetrates and interlaces local and remote spaces, environments and ambiances (near ours and those captured, brought to us, and that propagate towards us), while creating and modifying dynamics of our perceptions.




Synema est une œuvre traitant de synchronisation et de désynchronisation étendues aux notions d'a-synchronie et de synchronicité dans le cadre de systèmes télématiques (en réseau), ici, audio-visuels. Ce prototype se base sur le principe de nocinema.org en testant des configurations de synchronicité à partir de captations en direct (vidéo et audio) dans des lieux répartis (et interconnectés par les programmes construits). Synema crée de la synchronicité à partir : (1) de l'association à la volée d'images vidéos et de sons qui sont indépendants et en direct, à l'aide des techniques de streaming, (2) du lancement du programme de synchronisation sans qu'il soit identique à chaque fois, (3) et de la lecture via l'interface de ces médias reçus. Synema (et également nocinema.org) ne se fonde pas sur le principe de la synchronicité et de la fidélité du cinéma : la synchronisation entre l'image et le son, la synchronisation des spectateurs dans le même lieu (la convocation propre au dispositif du cinéma), la reproduction à l'identique d'un film quelque soit le moment où on le regarde et où on le regarde. Pourtant les programmes Synema et nocinema.org produisent de la synchronicité : les moteurs sont synchronisés sur des temporisations liées à la durée identique des plans (fixée comme paramètre) et à la durée variable des séquences sonores (ceci est vrai seulement pour nocinema.org) ; les moteurs suivent des séquencements de montage et de mixage (seulement pour nocinema.org) qui sont créés à la volée. A la différence de nocinema.org, Synema n'utilise que des sons streamés (en direct). Ces sons sont transmis à partir de microphones ouverts qui streament en continu ce qu'ils captent (« webmicrophones » placés ici en Allemagne, en France et en Colombie et maintenus par des collaborateurs participant au projet Locustream de Locus Sonus). Synema utilise également plusieurs manières de séquencer et de ramener les images vidéo streaming des webcams sélectionnées pour ce projet. Les images des webcams sont proportionnées aux écrans d'ordinateur pour ne présenter que des fragments donnant peu d'informations sur les lieux : on reconnaît des lieux mais on ne peut pas les localiser. Les plans « cadrés » offrent des ciels, des bordures d'espaces (forêts, etc.), des plans lointains, des horizons, etc. Les séquencements d'images utilisent des fade in / fade out (fondus au noir) donnant ainsi un surcroît de temporisation entre les passages (et renforce le jeu avec les règles du cinéma). Ces fondus fragmentent également la linéarité du séquencement d'images (nocinema.org de son côté n'utilisent que des cuts de plans fixes). La « bande-son » de Synema est minimale : elle est le mixage de flux sonores captés par des microphones en direct en utilisant les techniques de streaming. La « bande-son » joue de l'interpénétration avec l'ambiance sonore (locale) du spectateur/auditeur. Un drone sonore joue le rôle de liant « musical » et filtre continuellement les ambiances sonores brutes captées par les microphones. Ainsi tous les médias (image vidéo et son) de Synema sont en direct : le programme les rend ici et maintenant (hic et nunc) à partir de médias captés à distance et simultanément (illic et simul), et qui sont ramenés par le programme dans une synchronicité pour le spectateur/auditeur. Les jeux de superpositions (d'images) et de mixages (de sons) synchronisent et associent des éléments de provenance séparée : la perception est ainsi mobilisée et troublée. Lors de films utilisant l'absence d'images (des plans noirs lorsque il fait nuit, selon les timezones et les localisations des caméras, et lors des fade in / fade out), la salle de cinéma décuple ces fonctions d'auditorium. Le mixage sonore utilise la superposition et le décalage de lecture des mêmes streams. Cette superposition de requêtes en direct du même stream crée des effets de phasing dus aux décalages (delays) temporels de la réception par Internet comme s'il s'agissait de propriétés de l'acoustique virtuelle des réseaux électroniques. Synema crée du réel par l'association de médias.

http://nocinema.org/synema/




Premiered at International Conference Remote Encounters, University of Glamorgan Cardiff Wales (UK), april 2013, http://remote-encounters.tumblr.com/
Live video programming : nocinema.org, Stéphane Cousot, Jérôme Joy —
Live sound & webmicrophones programming : Locus Sonus, http://locusonus.org/, http://locus.creacast.com:9001/status8.xsl
Synema programming :Jérôme Joy
Research residency NT2 lab UQAM Montreal
PhD audio art & experimental Music, Laval University Quebec




../files/articles/synema/synemab.jpg ../files/articles/synema/synema2b.jpg ../files/articles/synema/synema3b.jpg









   
   
   
    [Edit] [History] [UP] [List of all pages] [Create page]   [Erase cookies]


1995/2020 — Powered by LionWiki 3.1.1 — Thanks to Adam Zivner — webmaster & webdesign : Jérôme Joy — Author : Jérôme Joy — Any material is under copyleft © with in-line & in-text attributions —
http://jeromejoy.org/ — Hosted by nujus.net NYC since 2007, and by The Thing NYC (between 1995-2007 — Thanks to Wolfgang Staehle and the Thing team).