ARCHIVE PROJET DE RECHERCHE

Voici les archives rassemblées du projet de recherche, qui a eu lieu entre janvier 2008 et juillet 2009 dans le cadre du Master en Cinéma (qui se déroule à l’ECAL, à Renens et à la HEAD à Genève). Attention – c’est des textes en vrac non mis en page.

Les archives sont présentées par chapitres, à chaque fois scindées en deux parties qui correspondent aux deux phases de la recherche (jan-juin 2008 et septembre 2008 à juillet 2009).

Les chapitres sont les suivants:

1) Délimitation de l’espace

2) Equipe de travail

3) Base de données

DELIMITATION DE L’ESPACE

PHASE 2

Nous avons défini 3 zones sur le territoire :

– définition du périmètre de tournage (le grand Renens – en fonction de la variété recherchée) – zone orange;

– définition du périmètre de placement des médias (le point de départ des parcours étant la place des sports du Verdaux – lieu pressenti pour la présentation en juin 2009) – zone bleue;

– définition des zones de tests (les lieux où il s’agit de créer la densité en premier / le plus vite fin de pouvoir effectuer des tests grandeur réelle) – zones vertes.
Afficher Renens – zone phase 2 sur une carte plus grande

PHASE 1 (archive)

Nous allons découper une zone dans l’espace du sud-ouest lausannois en fonction des critères suivants:

limites géographiques – physique de type route / ruisseau (limite “épaisse” ou large: pas le milieu exact, mais calqué sur l’emprise de la limite en fonction des thèmes).

limites sociologiques (changement de milieu social, culturel).

limites urbanistiques (changement d’affectation du territoire)

La délimitation aura forcément un aspect arbitraire – mais le but du jeu est qu’il y ait un maximum d’hétérogénéité dans cet espace délimité.
Ce que nous percevons pour le moment de Renens est cette mixité culturelle, religieuse, sociale qui fait de cette commune un espace cosmopolite qui n’a rien à envier d’une grande ville.
Au niveau urbanistique et paysager, il faudra “un peu de tout”: les rails, les entrepôts vides, les villas, les barres d’immeubles, les espaces en friche, les espaces verts soignés etc…
L’autre caractère propre à Renens est cette “dorsale” de fer qui la traverse (la gare / gare de triage).
Au niveau des rencontres humaines, il faudra également veiller à restituer ce melting pot des cultures, mais également des âges (on passe d’un sentiment très années 50 à une modernité globalisante). Il s’agit d’aller à la rencontre de quelques un(e)s des habitant(e)s de ce “suburb”, comme l’apelle Thomas Isler.

Il y aura deux délimitations de l’espace:

une délimitation large, pour les tournages et les prises d’histoires. Le format de cadre peut être “mou”: pas géométrique.

carte_renens_large

une délimitation plus réduite pour le placement des médias et pour la superposition des nuages thématiques dans le cadre de la phase 1. Cette carte doit pouvoir nous permettre de tester le système dans un périmètre restreint, sachat que nous allons agrandir le périmètre pour la phase 2

carte_renens_reduite

Mis à jour le 25.04.2008

Concernant les questions cartographiques:

PHASE 2

Mise à jour le 15.01.2009

– définir le type de carte utilisée pour les 3 cas de figures (Iphone; CMS; carte avec parcours sur le site final);
– définir les avantages / inconvénient de chaque carte;
– définir le workflow entre le graphisme et la programmation (guidelines et mode d’emploi);
– définir les compatibilités avec les cartes d’autres villes / pays (pouvoir implémenter facilement et rapidement des nouveaux territoires) -> avoir accès à cartes en “open source” qui soient facilement personnalisables;
– définir les layers d’information nécessaires (routes, bâtiments, zones de verdure, eau, voies de chemin de fer, etc) -> définir notre propre légende;
– définir le rapport / relation entre la carte du territoire et la représentation des métadonnées -> comment peut-on augmenter, suggérer avec des éléments graphiques, sans noyer les informations entre elles ?
– existe-t-il des présentations cartographiques à proposer comme modules personnalisables sur le site public ? (par exemple de visualiser l’ensemble des parcours sur une carte minimaliste -> les parcours dessinent les routes; de mettre en relation des statistiques liées au territoire avec des types de médias posés sur ce même territoire -> réalité objective versus représentation subjective; de créer une nouvelle carte à travers les usages du territoire -> dessiner la ville telle qu’elle est expérimentée via ce dispositif; etc)

Un autre point important, qui concerne surtout le graphisme – mais qui a une implication directe sur la carte – est la manière dont on affiche nos “nuages” (layers de présentation de certaines métadonnées). Il s’agit de trouver une bonne manière (esthétique et technique) de pouvoir tirer parti de ces nuages (qui vont pouvoir “guider”, “aimanter” ou tout simplement aider les choix du visiteur).

PHASE 1 (archive)

Sur base d’une carte existante (cadastre en vecteur), Vincent Jaquier va redessiner la carte en fonction des besoins esthétiques et techniques du projet, à savoir:
– juxtaposition d’éléments du monde réel et de la base de données -> trouver des codes complémentaires et garantir une lisibilité des éléments;
– garantir que le parcours effectué reste le plus lisse et logique -> la technologie GPS étant faillible, il faut garantir que les visiteurs restent sur les chemins et routes (éviter de passer par les cuisines ou jardins privés…) – nous avons décidé de placer des rails sur toutes les routes et chemins afin de placer par calcul de proximité et probabilité le parcours du visiteur par magnétisme sur ces rails.

Les cartes utilisées auront deux niveaux d’informations:
– fond de carte: voies d’accès et réseau routier, bâtiments, (limites de parcelles), toponymie (sur les vues à grande échelle)
– visualisation de données spécifiques: (dans le CMS, sur le module embarqué, sur le site web): nuages/zones thématiques (limites, superpositions, découpage en couches), nuage de titres artistiques des médias placés, éléments précis issus des métadonées (par ex. point d’intérêt particulier, localisation d’une séquence), repérage de la marche en cours (position/historique)

La carte de la zone délimitée avec tous les calques:

carte_renens_tout

Exemple avec l’emprise des bâtiments sur la zone choisie:

carte_renens_buildings

Exemple avec le parcellaire:

carte_renens_parcellaire

Des cartes sont utilisées dans trois situations / moments:

sur le cms (la base de données, gestionnaire des métadonnées des médias):

– les cartes fonctionnent comme repère au moment du montage spatial des séquences (on “place” la séquence sur une position dans l’espace géographique);
– les éléments graphiques superposés (nuages, limites de zones, etc.) sont créés dynamiquement selon les actions du monteur;
– ils peuvent à ce moment être modifiés, déplacés, en fonction des métadonnées ou de paramètres décidés par le monteur (à voir).

sur le module embarqué:

– les cartes sont utilisées comme moyen de navigation / repérage pour le spectateur;
– elles servent aussi de support pour les choix d’itinéraires d’une promenade en lien avec les zones thématiques (nuages);
– là les cartes sont dynamiques en fonction de l’usage de l’interface graphique, mais fixes quand au positionnement et au comportement des éléments visuels (à part les signes relatifs à la marche en cours dont les données sont actualisées en temps réel).

sur le site web final (pas encore mis en place, le sera pour la présentation publique du projet):

– il s’agit de la même carte que celle utilisée sur le module embarqué, mais adaptée pour une utilisation avec un écran plus grand et l’interactivité liée aux possibilités du web
– la carte sert de “spaceline” (une timeline spatialisée), afin de pouvoir se représenter où l’on se situe par rapport au film, mais également par rapport à l’espace visité.
uio

Ajout de mi février 2008, extraits d’un mail de Daniel Sciboz:

Nous devons fixer quel-s type-s de formats seront utilisés pour ces cartes.
Idéalement il lui semble que le choix de cartes raster ou vectorielles (ou hybrides) devrait être similaire dans les deux situations.
Le dessin vectoriel (en tous cas des zones et donées relatives au projet) a l’avantage d’être plus précis et rapide dans son actualisation.

Avant de faire ces choix, il est important de connaître les éventuelles options technologiques qui peuvent s’avérer déterminantes pour le graphisme:
– type de formats de fichier supportés
– vectoriel/bitmap: quels formats possibles, quelles contraintes (affichage, zoom, inclusion dans la dynamique du système)?
– quel mode de positionnement (géographique, evt. système d’information géographique GIS, etc.)?
– actualisation de l’image en temps réel
– …

Exemples de cartes vectorielles sur le site Swisstopo:

http://www.toposhop.admin.ch:80/shop/products/landscape/vector25

http://www.swisstopo.admin.ch/internet/swisstopo/en/home/products/downloads/landscape/vector25.html

Outils pour traiter les cartes:

Il y a: Avenza, Mapublisher, Geographic Imager…
http://www.mapublisher.fr/produits/versions/mp7/index.html
http://www.mapublisher.fr/produits/index.html
http://www.publishingperfection.com/
http://www.mapublisher.fr/produits/versions/gi/index.htmlavenza/avn133/

ou des logiciels pro, type ArcGIS, ArcView…
http://www.esri.com/software/arcgis/index.html
http://www.esri.com/software/arcgis/about/visualization_cartography.html


EQUIPE DE TRAVAIL

PHASE 2

La phase 2 a accueillit, depuis la rentrée 2008, un certain nombre de nouvelles collaborations. En quelques mots leur rôle dans le projet.

Florence Guillermin: Réalisatrice genevoise diplômée de l’Ecole Supérieure des Beaux-Arts de Genève.
Elle va travailler à un niveau général sur :
– le rapport intérieur / extérieur, c’est-à-dire la limite entre la rue et les amorces d’intérieur (vitrines, magasins, allées d’immeuble) – interroger le sentiment de vide que je ressens en me promenant à Renens.
– la notion d’espaces ouverts / fermés : les points de fuite que notre regard rencontre ou ne rencontre pas au cours d’une déambulation, points de fuite horizontaux (entre les rues) et verticaux (entre les immeubles)
– la présence du temps : passé- présent-futur qui se superposent dans un même espace (immeubles anciens, récents, chantiers) – travail sur les matières.
Voir comment ces thèmes, impressions liées à la forme de la ville, pourraient être abordés en interview avec des passants.
Filmer des lieux précis (quelques pistes) :
–    la piscine de Renens et le cimetière : lieux qui ne font pas partie du périmètre défini, mais qui seront replacés (recréés ailleurs) dans le centre de Renens, par analogie de forme ou de thèmes – en insérant ces lieux ailleurs, chercher à créer des percées, des arrêts, un temps particulier, qui n’est pas forcément celui de la déambulation. Interroger les personnes qui s’occupent de l’entretien de la piscine et du cimetière, les suivre dans ces lieux.
–    la gare : une journée d’images dans, et aux abords de, la gare (rythmes, passages, traversées)
–    lieux de travail actuels ou passé (intégrés dans la ville ou repoussés à ses limites) : la zinguerie, le gaz (la soucoupe volante en zone industrielle), la verrerie (récupération du verre) – filmer à deux : images + prise de son et interviews

Jeanne Macheret: Artiste (performance) diplômée de la Haute Ecole d’Art et de Design en juin 2008 et stagiaire à C-Side Productions. Collabore au dérushage et à la gestion des médias dans le CMS. S’efforce d’acquérir la plus grande et la meilleure mémoire possible des médias existants. Tente d’imaginer des liens et de les rendre efficients.

Les étudiant-es du Master Cinéma, réseau cinéma HES-SO: Les étudiant-es en master cinéma ont  suivis un atelier réalisation au mois de octobre/novembre 2008, dont le sujet était Renens. Dix films, principalement documentaire, sont sortis de cet exercice, et le matériel tourné dans son ensemble pourrait être utilisé pour la base de médias du projet. Il reste encore à visionner ces films et selon les sujets abordés et la qualité du matériel ils peuvent s’inscrire dans WE.En ce qui concerne les personnes déjà engagés sur le projet, voici quelques précisions sur les intentions de chacun.

Ulrich Fischer: va travailler principalement avec la caméra HD + trépied, mais également faire quelques séries de photographies. UF vise entre 1 et 2 jours de tournage par mois, donc la création d’environ 70 à 100 médias par mois.
– suivre (à pied avec trépied) des “travailleurs de l’espace urbain”: voirie, chantiers routiers, camion ordure (comment on traite les restes) etc. Chemin faisant, nouer des contacts avec eux et amorcer des discussions (pas que des plans d’observation donc);
– entrer en discussion avec les riverains du futur chantier de la place du marché (spontanément, chercher également des personnalités qui peuvent raconter et surtout faire visiter ce périmètre). Essayer de revenir périodiquement pour garder une trace de l’évolution des changements;
– contacter + filmer le garagistes qui préparent les voitures “tunées” des habitants de la région; par ce biais entrer en contact avec certaines communautés. Je me suis toujours posé des questions sur qui sont ces gens qui passent leur vie dans et à travers leur voiture, je vais donc peut-être enfin en savoir plus (mais sans doute toujours pas comprendre).
– continuer les prises de vues (contemplativo-analytiques) par tranche de quartier, aller fouiller du côté des villas et zones résidentielles sans histoire(s) -> vérifier s’il n’y a pas quand même une légende périurbaine ???

Nicolas Wagnières: L’idée d’un double rapport entre un regard de l’intérieur, suivi d’acteurs locaux dans leur environnements professionnels, et le regard extérieur de “spécialistes”, architecte de la commune (SDOL), sociologue. Une autre piste est celle d’interviews réalisés de manière plus classique, peut-être que le son primera sur ce type d’enregistrements, avec des personnes d’un certain âge ayant une longue expérience de vie à Renens. Il s’agit de capter une parole qui raconte l’espace, les changements, des histoires vécues, il en faudrait un certain nombre. A voir éventuellement de quelle manière contextualiser ces paroles afin de se dégager du “potentiel ennui” que pourrait provoquer l’image de ces interviews. Enfin, sous la forme d’une série, ayant pour motif l’identique différent, faire le tour des multiples associations culturelles à Renens, sous forme de listing.

PHASE 1 (archive)

Thomas Isler: prises de vues avec caméra DV ou HDV (style PD-150 ou Z1); caméra super-8 avec fonction image par image avec peliculle NB.TI se concentre principalement sur le territoire de la gare de triage, de faire des prises de vues en relation avec les passages de train, des personnes qui y travaillent, des voyageurs qui la traversent. Il va également se concentrer sur les travailleurs CFF, portraits de cheminots.- vidéo / Super-8: portraits de cheminots, de voyageurs; portrait de cette gare ?- en vidéo: mouvements à travers l’espace embarqué sur une construction qui permette en cassure des échelles (premier plan de l’embarcation – une miniature – et deuxième plan l’espace réel); portraits- en super-8: caméra sur trépied et programmée pour filmer des images toutes les X secondes (accélération du temps)

Gwenola Wagon: prises de vues avec une caméra DV.GW va travailler sur deux axes:- sphère intime / intérieur des habitations de Renens. Tournages de nuit, ambiances (sonores, visuelles) de l’intérieur des maisons / villas / immeubles. Rencontres avec des habitants, en collaboration avec SD- travellings urbains, de jour / de nuit, en collaboration avec UF

Stéphane Degoutin: accompagnant Gwenola Wagon, prise de son, ITW avec habitants; prises de notes; photographies ?SD se concentre sur les rencontres avec les habitants, portraits des habitants et des appartements / logements depuis l’intérieur.

Pascal Amphoux: prise de sons (repérages avec un petit système son stéréo / canon); photographies (repérages et situations, prises de notes).

Nicolas Wagnières: Tournage en dv, caméra sony PD150, son direct et interview son seul.Recherche de “motifs visuels“ qui expriment le rapport du lieu avec l’extérieur du périmètre (ex: grossiste, théâtre,… ) Expression visuel du va et vient des gens.Tournage avec steadycam pour affirmer le va et vient incessant.Rencontres et interviews (son seul) avec des acteurs locaux: commerçant, acteurs sociaux. Ils raconteront comment ils sont arrivés à Renens.Objectivisation du territoire, en effectuant des interviews avec :Fernand Bernasconi, urbaniste conseil à la commune de Renens. Jean-Pierre Fragnières, sociologue.Par la suite , travaille de capture et de catalogage.

Ulrich Fischer: travaille principalement avec la HVX200 (images au format 720p25); prioritairement des images prises sur pied. Prise de son conjointe avec un bon micro.
UF travaillera principalement sur la thématique 4: ordinaire – quotidien / échappée (imaginaire) / légendes périurbaines.Plusieurs pistes à explorer:
– travailler avec très longue focale, profondeur de champs la plus petite possible -> sortir un ou deux éléments marquants du contexte, qui s’estompe mais reste présent;
– travail sur base de réflexions (surfaces réfléchissantes) -> également abstraction et en même temps “encapsulation” des volumes les uns dans les autres (avec des voyages à travers l’espace, grâce à la netteté…)
– interviews / rencontres d’habitants, d’utilisateurs de l’espace – en collaboration avec TI, portraits d’utilisateurs de la zone de la gare (cheminots, voyageurs etc);
– travellings réalisés depuis un véhicule, en collaboration avec GW
Egalement travail de prise de note photographique: garder des compositions spatiales; des éléments insolites; des textures; des formes ou éléments répétitifs (garages – barrières – etc).

Quelques pistes de réflexion (écrit à haute voix – garde note): L’une des caractéristiques marquantes du projet est de partir avec le postulat qu’il faut avoir – dans le cadre d’un travail collaboratif – une constellation de points de vue à la subjectivité (originalité) marquée plutôt que de viser l’interchangeabilité.
Le film résultant se base sur le pari de pouvoir passer d’une subjectivité à l’autre, d’un point de vue marqué à un autre. Chaque subjectivité est un épisode, un morceau plus ou moins fragmentaire dans cette totalité. La réalité (dans le film) se donne à voir comme un prisme dont toutes les visions / versions sont synchronisées sur base d’un parcours particulier et unique.

BASE DE DONNEES

PHASE 2

En cours d’élaboration. Dernière mise à jour le 25.01.2009

Il faut distinguer la base de données du CMS et du moteur de montage:
– la base de données stocke les informations saisies dans le CMS -> comparable au navigateur dans FCP;
– le CMS est l’interface de la base de données -> comparable à la timeline dans FCP, c’est dans cette interface que sont définis les liens potentiels entre les médias;
– le moteur de montage “est” le monteur -> il définit suite à l’analyse du parcours quels médias vont être joués.

Questions encore ouvertes:
– où termine la saisie des métadonnées et où commencent les réglages des critères d’analyse et les règles de montage ? En d’autres termes, comment vérifier la validité des réglages des métadonnées via des simulations directement dans l’interface de saisie… Idéalement, le réglage de ce moteur de montage devrait se faire dans le CMS directement.
– vérifier qu’il est possible de centraliser tout le processus de montage (temps réel et différé) sur un serveur; l’Iphone envoie le flux GPS au serveur qui lui se charge d’analyser le parcours et d’envoyer un flux audio déjà mixé via les canaux datas disponibles (3G, EDGE etc).
– en somme, il s’agit de définir notre outil de montage (spatial et spécial en l’occurrence), qui va pouvoir fonctionner de manière spécifique pour le projet mais qui doit aussi pouvoir être utilisé de manière plus générique (avec adaptations).

A faire:
– publier la liste des champs avec listes
– donner les définitions des champs et termes utilisés (thesaurus)
– définir les critères de choix pour les métadonnées subjectives et objectives
– vérifier la compatibilité avec d’autres systèmes (import / export / synchronisation); par exemple Final Cut Server etc.

PHASE 1 (archive)

Du plan au fragment

Maude Steiner, stagiaire à C-side, a rejoint l’équipe au niveau de la préparation des données. Elle s’est principalement occupée à définir, dans les données audiovisuelles numérisées, les différents moments (fragments combinables, et/ou potentiels d’articulation narrative). Ceux-ci doivent être maintenant réexportés sous la forme de nouveaux fichiers/plans indépendants, qui seront alors catégorisés aux niveaux formel-thématique-narratif, dans le CMS, fraîchement installé sur le serveur à C-side. Ce travail va s’effectuer dés aujourd’hui, le 5 juin 2008.

NW/05.06

Manière de procéder à la saisie des données (une première proposition de méthodologie d’indexation de médias) :

1 – indexation formelle : données « objectives » comme la durée, le nom, coordonnées spatiales, etc
2 – indexation conceptuelle : données « subjectives » comme le thème, l’appréciation, les correspondances etc. Cette partie est spécifique au projet et nécessite donc une adaptation précise.
3 – indexation visuelle / sonore : analyse de l’image et / ou du son, tant au niveau du contenu (objets / sujets représentés) que de ses caractéristiques formelles (luminosité, rythme, dominante de couleur etc)

Une partie de la saisie pourra se faire de manière automatisée (données « voyageant » depuis la prise de vues avec les médias, comme par exemple le lieu et la date de tournage ou le réalisateur / caméramen – ou alors ce qui relève de l’indexation automatique de certains paramètres de l’image comme l’histogramme etc) ; le reste devra être entré à la main et donc demander des compétences et une responsabilité analytique forte. Ce n’est qu’à travers une série de tests “grandeur nature” qu’il sera possible de déterminer une méthodologie fonctionnelle pour ce projet – tout en assurant une compatibilité face aux standards existants (exemple du mpeg7).

PROCEDURE:

Les vidéos et sons seront dérushés dans l’interface de Final Cut: il s’agit dès le départ de noter un maximum d’informations d’une manière définie (les données objectives et une partie des données subjectives), puis de décider des points IN et OUT de chaque média. Selon le travail effectué sur le fichier (filtrage, effets, recadrage etc), il s’agit d’exporter le clip en question, et de considérer ce nouveau fichier comme le master à utiliser pour la suite.
A priori, une fois ce travail préalable réalisé, il s’agit d’exporter une liste de lot par chutier (cela correspond en fait à tout ce qui existe dans le navigateur de final cut – EXEMPLE DE LISTE DE LOT); cette liste sera ensuite importée dans la base de donnée centrale (à travers un CMS personnalisé).

Les photographies seront traitées dans Lightroom – qui permet de cataloger et annoter rapidement des lots d’images. De même, il s’agit de trouver une méthode pour importer les métadonnées dans la base de données centrale, sans doute avec une passerelle XML.

Comme possibilité à sonder : il existe des solutions logicielles qui permettent d’automatiser la caractérisation de l’image, comme le fait de déterminer la dominante de couleur ou le rythme (voir dans ce contexte le projet de recherche en cours à Bâle). Sans doute il existe des solutions open source d’analyser des images (fixes ou en mouvement), afin d’en tirer des informations qui peuvent être utiles pour le système – il y a là une recherche à faire…

Il existe plusieurs types ou systèmes de bases de données, dans lesquelles il s’agira de trouver le bon / ou la bonne combinaison :
– BDD relationnelle
– BDD conceptuelle (sémantique)
– BDD multimédia
– Topic Map
– Ressource description Framework (RDF)
– …

LA BASE DE DONNEES CENTRALE:

Cette base sera installée (dès fin février) sur le serveur situé dans les locaux de C-SIDE (un xserve G5 au système 10.5.2, avec un RAID dédié au projet, sur une ligne pour le moment plafonnée à 6Mbit en download et 544Kbit en upload -> à augmenter tout prochainement).
Il s’agit d’une base de donnée en MySQL (version 5) avec un CMS qui permet l’édition des données depuis n’importe où (avec accès protégé bien sûr, autorisations particulières selon l’identité). Une question à résoudre sera celle de la visualisation des fichiers vidéo: à priori, les données seront doublées – un lien pour les fichiers originaux et un autre pour visualiser une version “proxy” basse résolution. Lors du travail via le CMS, on ne voit que les fichiers proxy – par contre, au moment de la diffusion du film, le système devra partir des fichiers originaux pour créer (à la volée ? en temps réel ?) les fichiers au format flash qui seront visualisés à travers le navigateur internet du poste client.

Les médias (vidéo, son, photographie) seront travaillés à la source (dans leurs logiciels respectifs) également à C-SIDE et mis à disposition sur le serveur une fois le travail préalable terminé.

————————————————————————————————

Manière de traiter et d’analyser les données enregistrées par le GPS pour le moment du parcours urbain (une première proposition de méthodologie d’analyse du parcours en temps réel: tout se déroule en local sur le module embarqué!):

1 – extraire (automatiquement) les données du tracé GPS pour 2 utilisations simultanées: permettre le positionnement sur la carte(affichage en temps réel sur la carte personnalisée du module embarqué); permettre l’analyse du parcours
2 – calculer (automatiquement) : selon les critères établis, il sagit de choisir dans la base de données son (installée en local sur le module embarqué) les fichiers qui font sens et qui vont pouvoir donner une idée, un sentiment du film que la personne est “en train de marcher”
3 – diffuser (automatiquement) et mixer entre 2 et 4 sources son:

Manière de traiter et d’analyser les données enregistrées par le GPS pour le moment de la création du film-objet (une première proposition de méthodologie d’analyse du parcours en différé, une fois le parcours terminé: tout se déroule en local sur le serveur):

1 – extraire (automatiquement, via bluetooth, wifi ou usb) le tracé enregistré par le GPS utilisé et convertir – si besoin – le fichier au format GPX (format d’échange proche du XML) ou sur un autre format à choisir en fonction des tests effectués
2 – calculer (automatiquement) : selon les critères établis, il sagit de compiler dans la base de données centrale la “playlist” qui sera envoyée au moment de la lecture du film sur l’ordinateur distant (se posent quelques questions techniques à ce sujet: envoyer les médias sous forme de flux séparés ou d’un seul film compilé; quel est le degré d’interactivité du spectateur avec les médias qu’il voit; etc).
Facultatif (question de modelisation): inscrire le parcours sur la carte de la base de données (ce qui permet de voir quels médias peuvent être choisis) ;
3 – diffuser (automatiquement) le ou les flux selon la playlist.
4 – compiler (automatiquement) le film-objet une fois validé par le spectateur et le mettre à disposition sur la partie publique du site

Cette procédure peut se faire de plusieurs manières, selon les choix effectués au niveau technologique, logistique et artistique. La recherche portera sur l’établissement d’un « workflow » idéal qui aura comme principal but l’automatisation de toute la chaîne.

INDEXATION

PHASE 2

En cours d’élaboration. Dernière mise à jour le 09.03.2009

Travaux en cours sur la base de données et le CMS.
On a remis en cause la nomination de “sujet”: il s’agit en fait plus de “objet”, ou “motif” (signal disait également Pascal). Sur lequel on se décide ? Objet ? Liste provisoire:
– Être vivant;
– Machine;
– Bâtiment;
– Infrastructure;
– Végétal;
– … (à voir les images tournées, il en manque ?)

Liste Ambiance – comment l’image te touche en tant que spectateur (synonymes lancés dans la discussion: impressions; effet; climat; contexte) qui donne des couples:
– ordinaire / extraordinaire;
– comique / pathétique;
– attachant / repoussant;
– adhésion / détachement;
Cette liste est actuellement (mars 2009) remise en question dans son utilité de définir un style de montage; par contre, il serait possible d’utiliser la caractérisation de l’ambiance d’un média pour pouvoir définir précisément l’ambiance sonore voulue dans le cadre d’une séquence. Par exemple, pour déterminer un son d’ambiance qui sert de “base” à une séquence de 2 minutes, le moteur de montage va aller chercher les caractéristiques contenues dans le champs ambiance de tous les médias choisis au sein de cette séquence de montage et aller chercher le média audio qui corresponde à l’ambiance prépondérante dans ce groupe.

Questions encore ouvertes:

– déjà implémenter certains champs (objet / sujet par exemple) dans les interfaces de saisie (FCP et Lightroom), qui permettent des saisies groupées plus puissantes que le CMS ?
– comment optimiser le travail collaboratif (garder une trace des choix effectués par les collaborateurs en ayant la possibilité de lire les intentions) ? Un des enjeux majeurs (non technique ou conceptuel) est la limite de notre mémoire et de la “synchronisation” des mémoires du collectif d’auteurs/indexeurs… Peut-être que pour le moment on peut utiliser le blog pour déterminer – de la même manière que les réalisateurs déterminent leurs choix de tournages – les intentions d’indexation ? Donc, de déterminer l’espace sur lequel on travaille, et de dire comment on va chercher à organiser les médias (quelques pistes de principes à donner);
– comment on peut simuler les choix effectués – visionnement d’un petit  montage, juxtaposition spatiale des médias sur la carte en fonction d’un critère de recherche etc ?

Ce qui reste à développer – optimiser sont les choses suivantes:
– mise en évidence des champs importants, possibilité d’afficher les champs en fonction de certains choix (par exemple griser tous les attributs vidéo pour les média audio ?);
– optimisation de l’affichage des médias sur la carte (couleurs, possibilité de voir les images d’un média cliqué ?);

——————————————————————————–

PHASE 1 (archive)

Exemples de catégorisation des champs (un premier exemple de base de données) – mis à jour le 08.04.08 :

– DONNEES OBJECTIVES :

1. Nom du fichier (type: séquence_plan_prise)
2. Durée (en heure:minute:seconde:image)
3. Taille
4. Format vidéo et audio original (codec / ips / résolution / débit / etc)
5. Type de média (photographie / vidéo / son / texte)
6. Coordonnées géographiques du lieu de la prise de vues (longitude / latitude / time-stamp)
7. Lieu de tournage (ville / quartier / adresse)
8. Caméramen / réalisateur / équipe de tournage etc
9. Vignette
10. …

– DONNEES SUBJECTIVES :

11. Description (mots clefs décrivant le contenu / forme) -> tags libres ? liste déroulante de mots clefs prédéterminés ? C’est des données qui peuvent être utiles pour choisir le bon média en fonction de l’analyse du parcours
12. Appréciation (qualité contenu / qualité forme) -> cela détermine la place (l’importance) que prend le média sur la carte thématique
13. Thématique (principale / secondaire) -> une nouvelle adresse spatiale (liée à l’emplacement du média au sein d’un thème, ou de sa proximité à d’autres thèmes)
14. Type de contenu -> Interview; travelling; nature morte; etc etc
15. Statut de l’image -> image objective / image relation, image
16. Sujet (primaire / secondaire) -> quel est le sujet du média ? que voit-on / qu’entend-t-on prioritairement ?
17. Tags (mots clef) -> en complément du point 11 ?
18. Catégories (donne des infos sur le contenu de l’image par catégories)
19. Type de narration: une piste serait de reprendre les catégories proposées par G. Deleuze, qui sont IMAGE AFFECTION / IMAGE PERCEPTION / IMAGE ACTION.

– DONNEES VISUELLES / SONORES :

20. Luma / Chroma (analyse automatique ?)
21. Intensité du signal (vidéo ou audio)
22. Mouvement / Statique
23. Rythme (rapide / lent)
24. Formes / couleurs / tonalités / etc existant dans le média (analyse automatique ou manuelle)
25. …

THEMATIQUES

PHASE 2

En cours d’élaboration. Dernière mise à jour le 15.01.2009

Les raisons de la nécessité des thématiques:
– élaborer des stratégies de tournages (cadrer les possibles à travers une liste fermée de thématiques à confronter avec le terrain), puis d’indexation avec pondération des thématiques pour chaque média contenu dans la base de données;
– permettre une continuité narrative (une unité thématique dans un ensemble de médias montés à la suite pourrait permettre au moins une continuité de contenu, une constance du “ce dont il s’agit”);
– définir et cibler les enjeux contenus dans les médias (choisir chaque média pour ses qualités d’appartenance forte à un thème donné: les médias ayant une appartenance thématique claire auront plus de chance de pouvoir garantir des combinaisons intéressantes).

Définition des pistes thématiques choisies (en déterminant précisément les enjeux artistiques et conceptuels):
– le monde du travail
– la multiplicité des cultures
– loisirs et désirs
– habitat mode d’emploi
– patrimoines oubliés
– mémoire et oubli (sort un peu du lot…)
– croyances en questions

Il y a encore du travail pour préciser: formulation de chaque ensemble thématique; vérifier que nous recoupons avec ces thématiques la réalité du territoire ainsi que les médias effectivement tournés, etc. Peut-être aller voir du côté de Perec ?

Questions ouvertes:
– comment traiter et maîtriser ces thématiques 1) lors des tournages et 2) lors du placement des médias sur la carte – faut-il faire des quartiers thématiques ? puis 3) dans la continuité du film -> la questions des règles;
– les thématiques choisies sont transposables à d’autres contextes ou pas ? rester sur des généralités ou spécifier en fonction de chaque territoire ?
– différencier les thématiques des postures et des autres champs subjectifs comme les champs “médias avec parole adressée”, “médias avec action constituante”, “médias paysages”…

PHASE 1 (archive)

Suite aux multiples discussions autour de la question de “comment approcher notre espace urbain“, les choses se précisent et donc se simplifient un peu pour la première phase. L’idée des nuages reste, celle des thèmes s’estompent. Les nuages sont les différents filtres au travers desquels nous lisons l’espace en question, ils se définissent, ou se déclinent sous trois niveaux:
–    Un niveau analytique
–    Un niveau engagé
–    Un niveau poétique
C’est ensuite en fonction de la thématique, elle liée au titre du média (indexation), que se définit son positionnement.

Voici une liste des pistes thématiques avec commentaires (à faire, à compléter – en cours!). Le mot thématique n’est pas encore le meilleur pour définir ce qui sera le dénominateur commun des 4 ou 5 groupes de médias, la visualisation de la base de données des médias sur la carte.
Attention, actuellement (mise à jour le 01.05.2008) c’est très cérébral, mais c’est des pistes de réflexion à l’état brut – il faudra convertir par la suite ces points en pistes de travail réels.
Une des idées est de nommer les thèmes d’après des mots plus “juteux” ou plus évocateurs / mystérieux, qui entraînent l’imaginaire (par exemple, le “muage”, un dérivé de nuage, affiliable à la thématique n° 4 (issu d’une erreur de frappe), ou “… etc, à trouver, compléter …” ce qui permet / oblige à trouver une autre définition des catégories et des thémes).

Une manière de visualiser ces pistes thématiques serait l’image du nuage : on le voit, mais on ne peut pas l’appréhender physiquement… c’est une forme complexe et simple à la fois, unie et chaotique ; on peut y entrer (parfois – en avion ou alors l’hivers en plaine), la réalité s’estompe, ou plutôt, se réduit. Et c’est justement le but de l’opération, la réduction de la réalité pour aboutir à en retenir que 1 ou 2 de ses composants (la « brique de base »).
Ce nuage existe toujours en superposition sur la carte de l’espace délimité – on pourrait également parler de zones thématiques (différenciées par des couleurs, se superposant, voir le post concernant le graphisme).
Pour le moment, une des manières d’appréhender ces thématiques serait de poser la question du “rapport à…” – ici en l’occurence il s’agit du rapport à l’espace concret de Renens. Ce qui est développé ci dessous est plutôt une catégorisation des principes de tournages qu’une liste thématique – au final, il s’agit de présenter sous forme de nuages (sur la carte) des thémes qui soient plus évocateurs.

1 mouvement / arrêt / immersion -> rapport physique

… Partir à la chasse des choses enfouies (non visibles, non audibles; mystérieuses ?), « carottage » audio-visuel (horizontal et vertical) de l’espace urbain; “scan” des surfaces visibles. Relations dynamiques entre image<->son<->lieu…
… La question de la relation à l’espace (je vais essayer de retrouver la référence de la personne qui dit qu’un espace ne se vit / se lit qu’en étant en mouvement -> il faut du mouvement pour être dans un espace)…
Prioritairement: révéler par une méthode de tournage (conceptuelle, technique) ce que l’espace peu dégager en rythme, dynamique, vibrations…
Piste thématique plus formelle (travellings physiques, décadrages, travelings optiques etc).

2 public / privé / intime -> rapport émotionnel

… Espace (objectif ?) public / espace (émotionnel ?) intime ; la mémoire collective / la mémoire individuelle. Les limites liées aux bases et réflexes culturels des diverses personnes habitant sur le territoire -> “cartographier” les diverses pratiques liées à ces questions et réfléchir à leur représentation…
Prioritairement: chercher des ITW, discussions avec des habitants / utilisateurs de Renens – que ce soit sous forme organisée ou spontanée.
On se concentre sur les histoires, sur un développement de portraits, de rencontres liées à des personnes.

3 (dés)orientation / (dé)localisation / perte -> rapport politique

… notre rapport aux signes / à la signalétique / au balisage – quels sont les repéres qui nous guident et parfois nous invitent à nous perdre ? Il ne s’agit pas des panneaux de signalisation routiers, mais plutôt les marques (points marquants; zones “sensibles”) qui sont propres à chacun (donc d’aller chercher des histoires de liens très personnels chez les personnes qui habitent / transitent dans l’espace choisi)… c’est encore un point assez flou -> mais le but est de récolter des histoires à partir d’éléments existants dans l’espace, et de voir à quel point il y a une dérive entre l’élément déclencheur et le “résultat”…
Dans la lignée “c’est arrivé près de chez vous”, je tombe sur une publication réalisée par des romands (Nicolas Nova et Fabien Girardin), qui ont sondé l’espace public en focalisant sur ces signes, balises: cela donne sliding_friction… ou si on inverse la question en l’appliquant aux objets / constructions (notamment par rapport – premier degré – à la question des délocalisations)… Est-ce qu’une ville bouge (réellement, physiquement ?)
Prioritairement: chercher des signes dans l’espace urbain qui témoignent de ces décalages / dérapages – en somme de se concentrer sur les zones de friction, où des mouvements multiples se passent en surface et en profondeur.
Cela peut se passer à travers une histoire liée à une rencontre, un développement narratif capturé au hasard dans l’espace urbain, etc
NOTE: il s’agit ici d’un exemple d’un thème, dans le sens qu’il peut y avoir des multiples manières d’aborder ces enjeux, non liés à une catégorisation stricte de principes de tournages comme les deux premiers exemples.

4 ordinaire – quotidien / échappée (imaginaire) / légendes périurbaines -> rapport métaphysique (mystique, religieux, philosophique, artistique)

… se laisser surprendre par le réel – tout en cherchant en quoi les outils utilisés permettent de saisir, garder et transformer ce qui se déroule sous nos yeux quotidiennement… c’est en partie l’utilisation de ces outils qui nous amène sur le terrain de l’imaginaire ?… là aussi (comme dans le point 3), c’est de travailler sur la distance entre la réalité (les éléments que nous voyons à l’image) et les histoires qui circulent, et comment celles-ci à leur tour “reprogrammeront” l’espace lui-même…
Je fais une recherche internet avec “légendes périurbaines”: je tombe sur ce blog pour le premier résultat… on est donc déjà bien référencés, mais je ne suis pas sûr si c’est bien qu’on soit aussi visibles.Et juste quelques liens plus loin, je trouve une projet de recherche sur la question, réalisé au Valais ! voici le PDF (Position et production de l’artiste dans un contexte périurbain).
Prioritairement: guetter des moments d’amplification – quels sont les stratégies pour échapper au quotidien, pour le sublimer, pour lui “presser le citron”? Concrètement, cela peut dire d’aller chercher explicitement les endroits / moments où il y a de fortes chance de tomber sur ces enjeux – comme par exemple de filmer des fêtes, des cérémonies, etc
NOTE: il s’agit ici d’un exemple d’un thème, dans le sens qu’il peut y avoir des multiples manières d’aborder ces enjeux, non liés à une catégorisation stricte de principes de tournages comme les deux premiers exemples.

5 construction / friche / planification, contrôle (programme) -> rapport intellectuel

… là aussi, notre relation à l’existant (construction / friche) avec ce que cela comporte de projections (planification). Sans doute le thème le plus concret: il y a certainement le côté urbanistique et architectural de la question, mais il sera sans doute très intéressant de prendre ces thématiques non pas sous un angle réaliste (que se construit-il ou se planifie-t-il à Renens), mais sous l’angle du vécu, à travers des histoires d’habitants et de personnes qui réfléchissent sur la question (d’une manière plus théorique)…
Prioritairement:
NOTE: il s’agit ici d’un exemple d’un thème, dans le sens qu’il peut y avoir des multiples manières d’aborder ces enjeux, non liés à une catégorisation stricte de principes de tournages comme les deux premiers exemples.

——————————————

NOTES EN VRAC: Ces thèmes (ou concepts / concepts traversants / jeu de piste) fonctionneraient comme des étiquettes (des post-it), des filtres (cadres, perspectives) pour voir la réalité dans l’espace choisi. Il y a toujours la question de la dénomination: le mot thème n’est pas parfait… La question du mot générique pour rassembler les parcours narratifs : thème (trop didactique ?), concept (traversant), pistes (de recherche), enjeux… ?

Notes du 1er mai (discussion avec Gwenola, Nicolas et Ulrich). Nous cherchons ensemble une meilleure définition de ces nuages pour ne plus utiliser le mot “thème”…

Nous voulons trouver d’une part un mot qui définisse le concept de ces nuages (à quoi servent ces nuages) et d’autre part les titres de ces nuages. Une manière d’entrer dans l’invisible… ou le virtuel, un conditionnement nécessaire qui devrait pouvoir aiguiser la concentration, l’imaginaire (et par là permettre au visiteur de “créer” son propre film dans sa tête).

MATERIEL – TOURNAGES

– Tournage de nuit (à l’aube ou au coucher de soleil) -> cela permet une plus grande abstraction, de cibler l’attention sur une ambiance qui “sous tend” le lieu, de ne garder que ce qui est fixe et “d’oublier” ce qui est en mouvement, de faire sortir les couleurs etc

– Tournage en mouvement: à pied, caméra embarqué sur vélo, refaire des prises de son avec perche et (bonnette anti-vent + parapluie…) ->faire subir “l’effet cinéma” au lieu: amplifier, contraster, perturber le lieu avec un mouvement classique (travelling latéral) ou décalé (mouvements singuliers)

– Suivre, s’entretenir avec des personnes ayant un rôle ou une activité qui les amènent à être mobile dans la région de Renens, comme par exemple: des musiciens d’une fanfare ambulante ou d’une orchestre municipal, un livreur de pizza, un taximan, un chauffeur(se) de bus, pompier(e), géomètre, chauffagiste, policier(e), brigade de stupéfiants, détectives privés, ramoneur, ambulancier(e), recruteur de religions diverses voire obscures (genre église évangeliste), vendeurs d’adsl, câble, promeneurs de chiens, babysitter, infirmier, kiné-ostéopathe, SOS médecin, joggeurs du dimanche, chasseurs, croque-morts… des guides de villes (réelles; imaginaires) nous emmènent ailleurs, des vecteurs humains pour redonner une échelle (une profondeur, une mise en abîme, …) singulière au lieu qui nous intéresse.

– L’homme invisible comme exemple d’une stratégie narrative qui travaille sur l’invisibilité / l’absence visuelle de l’objet de la narration dans le champs représenté. Transposition dans d’autres médiums (l’inaudible / l’impalpable) -> cela permet de mettre en route un suspens, une recherche, un regard actif… L’autre intérêt de cette stratégie est la réduction / simplification / obsession sur une seule composante de la réalité / représentation de celle ci.

– L’objet invisible -> le comportement / regard générique (cf travail photographique cité par Pascal Amphoux). Trouver des moments / lieux dans lesquels il est possible de capter des postures semblables chez des passants – l’objet de l’attention est hors champs, mais existe véritablement (contrairement à ci dessus).
Exemple: attente au feu rouge, regard levé vers des affichages etc. Le but étant de décontextualiser cette posture et de pouvoir se concentrer juste sur le regard et l’attention (ou le vide).

MOTEUR DE MONTAGE

PHASE 2

En cours d’élaboration. Dernière mise à jour le 23.03.2009

Il s’agit clairement de la partie la plus délicate, tant au niveaux artistique / conceptuel qu’au niveau technique. En effet, c’est ici que se condensent les questions de montage, et donc de construction de sens du film résultant…

Pour débuter, il faut toujours distinguer entre la partie en temps réel (TR) qui se présente sur l’Iphone (écoute d’un flux sonore donnant une idée du film en train de se marcher, visualisation du processus en cours) et la partie en temps différé (TD) qui se visionne sur une interface web, une fois le parcours effectué. Le calcul en temps réel se fait donc chemin faisant, en calculant chaque média l’un après l’autre, alors que le calcul en temps différé connaît la fin du parcours (et donc la fin du film) et peut aboutir à des choix plus précis et cohérents. Il est important de noter que les deux processus de montage se déroulent sur le même serveur de calcul, avec quasiment le même moteur logiciel. Ces deux types d’analyses sont par contre assez différents quant à la précision.
Mais l’analyse, aussi poussée soit-elle, ne peut pas aboutir seule à un montage avec un minimum de continuité logique – il faut donc suivre des régles qui régissent certains champs de la base de données. C’est le jeu entre les résultats de l’analyse et les régles inhérentes aux médias choisis qui devrait nous permettre d’avoir une structure / forme du film qui corresponde au type de trajet effectué tout en garantissant une continuité logique / narrative au niveau du contenu…
Tout le processus décrit sur cette page revient à dire que le montage est le résultat d’une suite de choix et / ou de filtrages; en somme, il s’agit de chercher parmi un certain nombre (non illimité) de possibilités le média qui convient le mieux.

Avant de continuer plus loin dans la définition des types d’analyse et de règles, il s’agit de définir le but formel qui préexiste, découlant de l’hypothèse posée: le style du montage final doit être le résultat transposé du type de parcours effectué. Le visiteur doit donc pouvoir comprendre la structure formelle du film qu’il regarde comme étant la traduction directe de la manière dont il a marché à travers le territoire. Pour donner un exemple: quelqu’un qui marche de manière cahotique et désordonnée avec variations de vitesse provoque un montage lui aussi cahotique avec des variations de plans longs et plans courts.

Découlant de ce principe, nous avons provisoirement posé les types d’analyses suivants (du plus important au plus particulier):
– localisation: en fonction de notre place sur le territoire, le moteur d’analyse cherche les médias qui sont posés par dessus notre lieu au moment donné. Pour info: vu que les médias ont un rayon qui est défini par un coefficient de leur durée, il est probable (et souhaitable) qu’il y ait au moins 20 à 30 médias qui soient appellables à ce stade là du processus;
– vitesse moyenne: notre vitesse moyenne calculée sur les x dernières secondes (30 secondes à priori, à tester) détermine la durée des médias pouvant être choisis – à nouveau, le nombre de médias potentiels se réduit;

Comme décrit ci dessus, afin de consolider et préciser cette analyse, il est nécessaire de poser des règles de montage, qui sont provisoirement les suivantes:

– continuité thématique: afin de garantir une continuité de contenu (de quoi on parle). Cette règle se “glisse” entre le moment de l’analyse de vitesse / durée et la définition du type de parcours – en effet, ce qui sous tend une structure formelle est avant tout une continuité de contenu. On peut dire qu’on peut parler de choses identiques mais de manières différentes, qui changent en fonction de la manière dont on s’est déplacé dans l’espace. Il s’agit aussi de garantir la même structure de continuité de contenu entre le moment du parcours et le visionnement du film – c’est pourquoi le type d’analyse des moments TR et TD diffère qu’après avoir choisi un certain nombre de médias appartenant à la même thématique. Ce chiffre est déterminé par des variables que nous pourrons changer dans l’interface du CMS: pour le moment, nous partons sur un  minimum de 2 minutes et un maximum de 10 minutes dans le même thème pour garantir cette volonté de continuité. Lors du démarrage du parcours, le système va aller chercher le média qui appartient à la thématique la plus présente dans l’espace dans lequel le visiteur se trouve, puis il va aller chercher le média qui a l’appartenance la plus forte, la meilleure qualité etc. Le début du choix thématique est donc un peu aléatoire, mais ensuite, la prochaine thématique convoquée dans le montage sera le fruit de l’analyse du parcours jusqu’au changement ainsi que de la plus grande présence dans le territoire donné;
– continuité de sujet: en fonction du type de montage choisi, cette règle garanti, de manière identique à la continuité thématique, des correspondances de critères (une liste déterminée de sujets) qui permettront de faire fonctionner les deux types de montage ;
– correspondance entre le temps du parcours et le temps du film: il s’agit de faire coïncider le temps total du parcours avec le temps total du film – comme les médias ont leur durée propre, il serait quasiment impossible de faire coïncider les deux temps sans intervention de montage sur certain médias. C’est là qu’intervient le critère “editable”: certains médias peuvent être coupé à n’importe quel moment pour permettre de retomber sur des durées égales entre le parcours et le film;
– choix de qualité: les médias ont un “ranking” de qualité (de 1 étoile à 5 étoiles); s’il y a toujours plusieurs médias en lice d’être conviés sur la timeline, cette règle permet de départager de manière qualitative.
– choix du type de média: ce n’est pas encore très clair comment nous allons gérer les proportions entre des médias audiovisuels, photographiques, vidéo seuls, audio seuls et texte vidéo. Il est possible d’attribuer des types de médias également à des types de parcours, pour “aider” à la caractérisation des montages en fonction du parcours. Il devrait être possible de déterminer des coefficients (min-max) en fonction des montages voulus.
– choix des médias audio joués conjointement: il s’agit d’éviter de de jouer ensemble des médias audio avec paroles; il faut donc garantir qu’il y ait une juxtaposition séparée de médias estampillés “ambiance”, “signal” et “in” et non un mélange du même type de média audio. Pour ce faire, nous allons attribuer chaque média dans la phase de cataloguage à une piste audio.

Sommairement, on peut dire que le montage (comme dans un “vrai” film d’ailleurs aussi) tend à partir d’un grand nombre de possible, pour aboutir chemin faisant à réduire les possible et à devenir par la même occasion de plus en plus précis, de plus en plus dépendant du parcours enregistré… Sur la visualisation sur l’Iphone, cela se représentera par une réduction des médias convocables au fur et à mesure de l’avancement du parcours – au début il y aura “foule” (beaucoup de médias convocables) et plus on s’approche de la fin, mois il y aura de médias convocables.

—————————————————————————————-

PHASE 1 (archive)

Les problèmes rencontrés avec l’accéléromètre ainsi que la précision relative des différents GPS nous amène à simplifier et revoir certaines pistes. L’idée des rails (circulation prédéfinie sur la carte) a donc refait surface, afin d’éviter de se voir traverser des lieux impossibles… Vincent Jaquier les rajoute sur la carte du module embarqué, en prenant soin de la “mettre à jour“ en fonction de la réalité du terrain.

L’utilisation de l’accéléromètre est également remis à la phase 2. Nous allons pour cette première phase nous concentrer sur le rapport entre la position du promeneur et les zones/médias traversées pour voir de quelle manière peut fonctionner l’articulation du montage.

NW/05.06

Il y a deux moments d’analyse pour le parcours, qui doit être fait avec un moteur logiciel qui analyse le flux du GPS:

1 – en temps réel lors du parcours, analyse effectuée sur le module embarqué.
C’est une analyse qui ne sera pas très précise (forcément), mais qui devrait pouvoir donner la sensation au marcheur que le système est réactif (si la personne s’arrête, elle sent la différence des types de sons: par exemple passage à une interview). Il s’agit de voir à quel point il faut mettre en oeuvre des zones temporelles pour l’analyse (5, 30, 60 sec) qui permettent une certain prédiction et également une continuité, fluidité – tout en proposant des ruptures quand il le faut.

2 – en différé une fois le parcours terminé, sur le serveur.
Cette analyse doit être plus fine et précise, ce d’autant plus qu’elle peut se permettre le luxe de commencer par la fin (le système connaît par avance la direction et la fin du parcours); il sera d’autant plus facile de choisir les bons fichiers en fonction de la direction qui est connue.

Le but de l’analyse du parcours est d’aboutir à une caractérisation qualitative du parcours.
Il s’agit de pouvoir mettre en correspondance, le plus clairement possible, le caractère du parcours avec le caractère du film (si l’on estime qu’un parcours et un film peuvent avoir un caractère; du moins une caractérisation…).

Les critères pour la caractérisation pourraient être les suivants:

– vitesse du parcours (rapide / lent) -> détermine le nombre de coupes (longs interviews pour quelqu’un qui marche lentement; plans courts pour quelqu’un de pressé) ;

– type de parcours (logique / désordonné) -> détermine la chaîne causale du film (montage logique ou désordonné) ;

– rythme du parcours (continu / discontinu) -> détermine le rythme, la fluidité du film (flux continu ou plutôt discontinu) ;

– but du parcours (exploration de l’espace urbain ou des thématiques); c’est vraisemblablement assez difficile à établir d’une manière juste, mais on peut interpréter un parcours en estimant si la personne a surtout visé des thématiques ou si elle a suivi la logique d’un espace urbain) -> c’est une analyse qui porte sur tout le parcours, et donc sur tout le film (sentir l’obsession de la personne ?!?) ;


Il est important de noter que le système doit pouvoir établir une valeur entre les deux pôles: par exemple entre “rapide” et “lent”, il ne s’agit pas de choisir l’un au détriment de l’autre, mais de trouver leurs valeurs respectives sur une échelle de 100 au total (par exemple).
Ces valeurs changent également avec le temps; il faut donc effectuer une analyse (pointage) toutes les X secondes (5 secondes ?) afin de faire varier le montage en fonction du parcours; mais il s’agit également de tenir en compte la valeur moyenne qui est le résultat de tout le parcours, qui va donner l’unité formelle au film (tendantiellement plutôt rapide que lent, etc).

PARCOURS ET MONTAGE

En cours d’élaboration. Dernière mise à jour le 12.03.2009

Ce qui suit est en cours de mise en place dans le moteur de montage et de test; c’est donc sujet à changements dans les semaines qui viennent.

Définition provisoire (décembre 2008) des types de parcours et de leur traduction en terme de type de montage:

2 types de parcours fondamentaux:

linéaire (continu) -> il n’y a pas plus de ruptures d’angles que ceux qui peuvent être liés aux contraintes du territoire (un maximum de continuité sans rupture d’angle entre deux ruptures d’angles “normales”)
cahotique (cassé) -> Il y a plus que X (une variable à déterminer) ruptures d’angles entre des ruptures d’angles liés aux contraintes du territoire.

Maintenant, il faudrait déterminer le seuil qui fait la distinction entre les deux types de parcours (un pourcentage min et max lié à la distance parcourue, ou au temps, ou un cumul des deux ?). A priori, il pourrait y avoir plusieurs types de parcours dans un parcours – un film peut être homogène au niveau structurel s’il n’y a pas eu de changements de type de parcours, mais s’il y a eu des variations de parcours et bien on a une mixture de types de montage…

On ajoute 3 attributs supplémentaires à ces parcours (qui ne sont pas exclusifs malheureusement – on pourrait cumuler -, donc pour simplifier on “réinitialise” un nouveau parcours à l’intérieur du parcours actuel à partir du moment qu’un nouvel attribut arrive; avec l’exception de la boucle qui n’intervient qu’à la fin):

recoupement: s’il existe des points qui sont proches d’un autre point de X mètres (15m ?)
aller – retour: si l’on refait un bout de chemin (proximité de points à 15 mètres sur un minimum de X mètres)
boucle: si le parcours finit comme il a commencé (ne peut être déterminé proprement que via une analyse en temps différé)

Nous avons donc 6 possibilités de combinaison (en excluant la boucle qui est intégrée à travers un règle particulière, et ce seulement pour le film) auxquelles je propose directement d’associer les types de montages formels suivants:

lin “nature”: -> montage discursif
lin-recoupe: ->  montage discursif avec effets de répétition / redondance
lin-AR: -> montage narratif avec un maximum de plans de groupe
caho “nature”: -> montage correspondances
caho-recoupe: -> montage correspondances avec effet de répétition / redondance
caho-AR: -> ouvert, en question

Pour pouvoir maîtriser ces correspondances entre le type de parcours/attributs et le type de montage, il s’agit de pouvoir bifurquer sur une analyse et des règles spécifiques à chaque type de montage.

Définition des 3 types de montage:
– montage discursif: se fonde principalement sur une continuité de sujet (les sujets sont définis dans une liste ici). Sur le principe, il s’agit de mettre l’accent, à partir d’un parcours qui est plutôt linéaire, sur une continuité objectivable, comme le fait de grouper des éléments faisant partie d’une même famille les uns à la suite des autres. Structurellement, il est également prévu de permettre la juxtaposition de plans “enfants” (extraits d’une même séquence sous des médias à part entière) afin de consolider d’avantage cette continuité.
– montage narratif: fonctionne à partir de groupes définis préalablement dans le CMS comme ayant une logique narrative déterminée. Il s’agit de pouvoir attribuer certains médias à des plans de groupe (tous les médias ne faisant pas partie d’un plan de groupe vont faire partie des deux autres types de montage), qui sont ordonnés chronologiquement par les critères “déclencheur”, développement” et “conclusif”.
– montage correspondances: bien qu’on puisse dire que tous les montages résultant de ce dispositif soient par nature à classer du côté des montages par correspondances, il s’agit dans le cas de figure d’un parcours plutôt chaotique de procéder par une logique de continuité se fondant sur une logique d’ambiance et non de sujet. Il est donc plus probable de “sauter du coq à l’âne” que dans le cadre des autres montage, mais on garde une continuité d’ambiance.

REMARQUE en cours de processus (fin février): l’indexation de l’ambiance n’est pas évidente à faire, et ne risque pas de donner un montage de type “chaotique”… une autre solution serait d’utiliser le mixage de lieux de tournages (mélanger les villes de plan à plan) avec variation de plan large à plan serré et de saisons etc…

Comment créer les effets de répétition et de redondance ?
– dans les critères subjectifs, un champs permet de définir si le média peut être rejoué ou pas. Dans le cas de figure d’un recoupement, on fait appel spécifiquement à un média qui a cet attribut. Mais comme il s’agit de l’avoir placé dans un moment bien déterminé et le rejouer au moment voulu de la répétition, cet effet n’est que possible dans l’analyse en temps différé (pour le film).

LE WEPHONE

PHASE 2

En cours d’élaboration. Dernière mise à jour le 25.01.2009

Après avoir testé une solution industrielle (voir archive phase 1 ci dessous), nous avons démarré la phase deux en faisant quelques tests avec l’Iphone 3G de Apple.

Ce qui ressort sont les points suivants:
– le GPS est tout à fait utilisable, surtout s’il est couplé à la triangulation des antennes de téléphonie. Les parcours enregistrés sont donc très proches de la réalité, mis à par les points de départ et d’arrivée qui parfois partent dans les fraises (le moteur d’analyse devra les “shooter” pour éviter les erreurs de montage). Pour garantir les meilleurs résultats, il faut éviter de faire des parcours par temps trés nuageux ou brumeux – on améliore également la précision si l’on “chauffe” le GPS via google map (on est tout de suite bon après dans l’interface du projet);
– sur la question du débit DATA: Orange semble moins bon que Swisscom (400kbit en moyenne pour Orange via le 3G alors que Swisscom permet presque 1000kbit dans les mêmes conditions);
– les capacités en terme d’affichage, de mixage et de puissance de calcul ne permettent pas d’effectuer tous les calculs en direct sur l’Iphone, donc il s’agit de décentraliser un maximum sur un serveur centralisé. L’Iphone ne ferait donc qu’envoyer le flux GPS et recevoir en retour un flux data qui permettrait d’afficher la présentation du processus en cours ainsi que de permettre l’écoute du flux audio;
– il serait donc possible de mettre à disposition une application à télécharger sur n’importe quel Iphone 3G – cette application ne ferait que gérer les flux entre l’appareil et le serveur et serait donc légère et pas trop gourmande;
– reste la question de la customisation des appareils prêtés au public: il fait verrouiller la possibilité de sortir de l’interface du projet (le bouton Home inopérant);
– l’autre point faible est le temps batterie, mais nous avons des solutions de batterie additionnelle.

L’interface et utilisation de l’Iphone durant le parcours: quelques réflexions et pistes de travail.

Comme décrit ci dessus, l’Iphone est au minimum l’interface qui permet d’enregistrer le tracé (via GPS) et d’écouter le film en train d’être marché (via un mixage audio en temps réel). A priori, nous n’aurions pas besoin de plus pour permettre la réalisation du projet, à savoir le montage d’un film à partir d’un parcours.

L’utilisation d’une interface pour la navigation ainsi que pour la visualisation du processus en cours n’est pas strictement nécessaire pour le projet et ne devrait pas déconcentrer le visiteur de la relation particulière qu’il tisse avec le contexte urbain à travers notre dispositif. En effet, le but sous jacent du dispositif global est de permettre une confrontation / immersion dans la réalité connue en permettant un filtrage et une réduction des multiples strates du réel pour pouvoir déclencher la construction mentale d’un “film” imaginaire…
Le parcours effectué dans le but de construire un film, en étant accompagné par le flux sonore du film en train d’être marché devrait déjà permettre une stimulation de l’imagination du visiteur, en lui faisant sentir que son parcours va faire sens et que les fragments sonores qu’il entend sont une dimension condensée de ce qu’il a sous les yeux.

Néanmoins, nous pensons qu’il est souhaitable et intéressant d’essayer d’offrir la visualisation du processus en cours, à savoir l’écriture d’une histoire (dans le sens non narratif) qui contient passé, présent et futur (des potentialités) basée sur le parcours en cours. Vu que le visiteur effectue un montage d’un film sans en voir les images, on imagine que s’il voit une représentation artificielle du processus en cours, cela pourrait lui permettre (en plus des enjeux décrits ci dessus) les choses suivantes:
– voir qu’il écrit une trace (parcours et médias choisis) – contrairement au cerveau humain où la mémoire est “évasive”, il a accès à la “mémoire” de son parcours via l’interface de l’Iphone;
– pouvoir représenter le moment présent dans un flux qui est composé d’un passé et d’un futur – un peu comme si le piéton avait accès à un rétroviseur qui lui permet d’avoir dans un seul champ de vision le chemin effectué (le passé) et le moment présent dont l’horizon constitue le futur;
– il voit l’effet de son parcours en temps réel: il déclenche un processus fait de choix (passé et présent) et de potentialités (le futur). Plus il marche vite, plus les médias représentés sont petits, plus il ralentit, plus les médias augmentent de taille; il a ainsi une représentation graphique de l’incidence de son rythme sur le choix des médias;
– il peut essayer de cueillir le prochain média de manière plus consciente (selon la présentation du futur), mais sachant qu’au final c’est son parcours (ses pieds) qui fait les choix, la réussite de cibler des médias bien précis est de l’ordre d’une performance…
– permettre un rapport ludique au processus en cours: le fait de devoir marcher son film devrait stimuler l’imaginaire mais aussi l’intellect – les représentations spatiaux-temporelles de la dimension artificielle du processus en cours sont pas éloignées des mondes artificiels existants dans certains jeux (citer quelques exemples – je suis pas spécialiste dans la matière, mais des comparaisons ont déjà été faites par certains colaborateurs);
– la visualisation du processus et plus importante que la représentation cartographique du parcours: nous souhaitons nous concentrer sur la présentation du processus, qui est en même temps hautement artificiel comme étant organique (faisant partie d’un ensemble d’interactions partant des pieds du visiteur et passant par un serveur qui calcule un montage à partir de chiffres envoyés par un téléphone). La question de savoir “où je suis dans le territoire réel” est moins importante que de savoir “dans quelle dynamique je me trouve dans la création de mon film”.

En somme, toutes ces pistes là fonctionnent seulement si elles ne sont pas illustratives d’une réalité visible et appréhendable, mais suggestives d’un ensemble de réalités parallèles qui sont l’addition du parcours réel, du placement d’une couche média sur le territoire ainsi que l’enclenchement d’un processus de filtrage et de montage de médias via des métadonnées…

Ceci étant posé, afin de pousser ces hypothèses sur le terrain et de les éprouver, il s’agit maintenant de trouver des traductions graphiques dynamiques (c’est important que la présentation soit aussi fluide qu’une marche urbaine peut l’être). Vincent Jacquier et Dimitri Delcourt vont travailler d’ici fin février sur quelques pistes développées ensemble – plus de précisions concrètes donc fin février…

PHASE 1 (archive)

Pour la fin de la phase 1, nous n’allons pas pouvoir nous fixer sur un choix définitif de module embarqué, pour les raisons suivantes:
– Nous n’avons pas encore pu tester toutes les solutions existant sur le marché actuellement, notamment la toute nouvelle version de l’Iphone (et son SDK) ainsi que les nouveaux processeurs basse consommation;
– Nous allons tester de manière virtuelle (simulations en software) les solutions d’affichage, de calculs en temps réel (l’analyse), de manière à rester le plus ouvert possible (pouvoir changer de plateforme le plus simplement possible)
– par rapport aux besoins déterminés au départ de la recherche, il y a eu quelques modifications: au niveau puissance graphique, nous avons besoin de pouvoir afficher plusieurs layers et de calculer beaucoup d’informations (donc carte graphique puissante nécessaire); intégration d’une couche interactive pour permettre plus d’interactivité de la part du visiteur (nécessite une bonne réactivité du système dans son ensemble).

Nous visons l’automne 2008 pour arriver au bout de nos tests et de pouvoir choisir une plateforme qui soit la plus adéquate; d’ici là nous allons faire le nécessaire afin de garantir une interopérabilité du code (le portage sur la solution choisie sera vite effectué).

Voici les caractéristiques techniques et une image du module embarqué que nous avons choisi pour cette première phase:

-> Max Resolution 800 * 480
-> Brightness(cd/m2) 350
-> Contrast Ratio 400:1
-> LCD Color 262K
-> Pixel Pitch (mm) 0.1905(H) x 0.1905(V)
-> Viewing Angle(H-V) 140/110
-> Backlight MTBF 30000
-> CPU AMD Geode™ LX 800 (500MHz)
-> Chipset AMDGeode™ LX 800
-> Touch Screen ResistiveType4-Wire
-> Power Consumption 20W

module embarqué large

Le profil idéal du module embarqué (Ultra portable PC / PDA / téléphone / Ipod Touch avec module GPS):

– écran de bonne qualité (VGA idéalement – sinon avec la possibilité de zoomer sur la carte, rapport de contraste adéquat pour une utilisation en plein soleil) – solide – rapide – autonomie minimum 5 heures – portable : petit et léger (devrait se porter en bandouillère) – avec interfaces bluetooth et / ou WIFI – extension carte mémoire souhaitée mais pas indispensable.

– module GPS sensible, rapide et précis (précision à 3 mètres souhaitable) Idéalement, le « lissage » des données venant du GPS est directement fait lors du parcours, selon des paramètres que nous décidons.

– accéléromètre: afin de pouvoir enregistrer des comportements et d’affiner l’analyse du flux GPS. Les premiers tests ont montré la difficulté de dompter les données sortant de ces outils, mais nous comptons tout de même utiliser ce type de données pour l’analyse.

– système d’exploitation permettant la conception d’applications « maison » : base de données audio pilotée par les données issues du GPS (lissés) ; visualisation d’une carte personnalisée avec zones thématiques en superposition
(variantes à tester : possibilité de déterminer le type de narration ; zoomer dans la carte ; voir son trajet inscrit sur la carte en temps réel ; écrire des textes / mots lors de la déambulation ; etc)

– optionnel / à tester : appareil avec capteur photographique, permettant à l’utilisateur de créer des images lors de son parcours. Questions : doit-on restreindre / piloter l’utilisation de cette option (images seulement possible dans un certain endroit ; ou alors après un certain temps d’inactivité ; etc) ?

Les opérations suivantes devraient pouvoir être possibles sur ce module embarqué:

– importer une base de données contenant que des fichiers son venant du serveur (base en PostGresql) – le format des fichiers reste à voir (AAC, AC3, aif etc). Le poids total des fichiers son ne devrait pas excéder 5Go; par contre, on devrait pouvoir synchroniser les deux bases pour tenir à jour le module embarqué (rajouter les derniers sons rajoutés)
– s’il n’y a pas de GPS intégré, lier un gps externe (de type wintecNavilockHolux) avec le module embarqué
– pouvoir récupérer le tracé GPS en temps réel, effectuer un “lissage” de ce tracé (afin d’éliminer les points aberrants) et ramener le chemin sur des rails pré-établis, puis l’interpréter (faire une analyse qualitative du parcours afin de déterminer le type de parcours que fait la personne)
– mixer et lire en temps réel entre 2 et 4 pistes son, restituées en fonction de l’emplacement géographique et de l’analyse qualitative du parcours
– afficher la carte du lieu avec les zones thématiques superposées, permettre la fonction zoom afin de changer d’échelle et d’afficher des informations différentes, afficher la position exacte et le parcours
– interagir avec la carte, afficher ou escamoter des layers

Le couplage du module embarqué avec le GPS doit se faire à l’intérieur d’une coque à concevoir spécialement pour ce projet (design d’objet et relation avec la charte graphique du projet): cet objet doit se faire discret, facile à manipuler (on ne peut que faire les opérations utiles dans le cadre du projet) et léger…
Concernant le matériel cartographique, l’idéal serait de reprendre une base existante, d’en garder que l’essentiel (base vectorisée) et de joindre de manière adéquate et fonctionnelle la carte du territoire et la représentation de la base de données (les thèmes).

UPDATE du 29.02.2008

Le SDK de l’Iphone est repoussé, mais des informations on filtré comme quoi il sera très restrictif, et ne sera pas vraiment ouvert à intégrer du hardware extérieur (style notre module GPS); il est donc pour le moment plus d’actualité d’utiliser l’Iphone ou l’Ipod Touch.
UPDATE du 13.02.2008

Documents techniques concernant l’Ipod Touch (avec l’exemple de l’Iphone, mais c’est la même base):

iPhone Human Interface Guidelines

iPod Notes Feature Guide

Web Kit DOM Programming Topics

Safari Web Content Guide for iPhone

———————————————-

Lien internet pour l’utilisation de Linux sur ce genre de machines (pour le moment, l’Ipod Touch n’est pas compatible…)

LES RESULTATS – LES FILMS

En cours d’élaboration. Dernière mise à jour le 30.03.2009

Lors d’une discussion sur le fonctionnement du WE-Phone avec Pascal Amphoux,  nous avons questionné le rôle alloué au spectateur qui n’a pas lui même marché de film.
Jusqu’à maintenant, il était contrait à une position plus passive du fait qu’il ne pouvait que regarder les films créés par autrui – sa seule marge de manœuvre résidait dans le fait qu’il pouvait choisir les films qu’il voulait voir, et comment il voulait disposer et analyser les informations complémentaires (statistiques, présentation des parcours sur une carte etc). A noter, que contrairement au visiteur qui a marché son film, il ne peut pas “augmenter” un film comme décrit plus bas dans cette page – ce privilège est réservé à l’auteur du parcours.
Le cheminement vers cette nouvelle proposition pourrait se présenter comme suit:
Nous avons deux bases de données: l’une contient les médias “bruts”, en attente d’être enchaînés (ou déchaînés, c’est selon) et l’autre contient les films marchés. L’analogie possible serait de formuler l’équation suivante: médias = atomes; films = molécules. Nous en sommes venus à la conclusion qu’il serait possible de faire faire une boucle au système en permettant au spectateur – visiteur du site internet de faire son propre parcours, virtuellement sur la carte du territoire et d’enchaîner (re-enchaîner) des séquences de films entre eux.
La nouvelle proposition pourrait se formuler comme suit, avec les règles suivantes:
Un onglet / une fenêtre du site permet de “construire un nouveau film” (build a new movie). Il faudrait trouver une formule proche du “walking the edit”, de type “edit the walk”. Ensuite, le spectateur devient le visiteur off-site mais on-line, où, via la carte du territoire, il peut définir des nouvelles articulation d’un film qui se construit à partir de films déjà existants (marchés) dans le base de données films.
Il faudrait des règles du jeu bien sûr, qui pourraient être les suivantes (il a toujours deux fenêtres face à lui: à gauche, la carte – vide en l’occurence, et à droite, une fenêtre noire qui va contenir le film qu’il va générer):
– il faut qu’il pointe avec la souris sur un endroit de la carte qui servirait de point de départ du nouveau film;
– un moteur d’analyse spécifiquement élaboré pour cette fonction lui présente plusieurs traces de parcours qui sont possibles à partir de cet endroit (il faut qu’un visiteur réel ait commencé son film à cet endroit) – il en sélectionne une (c’est lui qui fait le choix);
– le film existant est joué à droite sur l’écran et la tête de lecture avance autant sur la carte que dans l’écran vidéo. C’est ici qu’il y a plusieurs possibilités de définir les règles d’enbranchements / d’enchaînements entre films. 2 possibilités en attendant: les enbranchements sont possibles aux intersections des rues (croisements des possibles dans le réel); les enbranchements sont possibles sur des points “clefs” spécifiques et définis via des règles dans tous les films marchés (croisements des possibles dans les monde médiatique). Personnellement, je penche du côté de la deuxième solution qui privilègie une continuité / construction filmique avant tout. Donc, arrivé à un tel enbranchement, le film / parcours s’arrête et de nouveau enbranchements possibles de dessinent sur la carte; le visiteur peut maintenant désigner un nouveau parcours afin de donner suite à son film;
– ceci étant posé, il faudrait transposer la présentation du processus en cours qui existe sur le WE-Phone à cette nouvelle interface / situation, en tirant parti des contraintes, possibilités et de la situation qui n’est pas vraiment comparable à un parcours urbain… Dans les pistes possibles, il y aurait: présentation des segments joués / jouables via une présentation thématique, formelle, de provenance (ville) ou d’auteur (personne qui a marché le segment en question), afin de permettre un affinage un peu plus précis des choix de sélection de parcours. Cette première version est encore assez “clic”, et donc encore assez pauvre au regard de ce qui est permis lors du parcours réel. C’est là qu’intervient (un nouveau projet de recherche ?!?) la question de comment analyser et caractériser les mouvements de la souris…
Bref – une nouvelle porte s’est ouverte, les possibles affluent et il s’agit maintenant de trier, peut-être déjà tester si on y arrive; mais en tout les cas, il me semble (avec le recul de quelques heures) que cette nouvelle ouverture n’est pas à côté de la plaque, mais qu’elle apporte le danger d’une mise en “larsen” (en abîme) des médias/films/processus et donc un risque réel d’arriver à des résultats absurdes, où finalement la forme risque de se dissosier du fond: on va avoir une belle image d’une figure du chaos au niveau formel, mais au niveau de la réalité du film résultant, d’une suite de mises en contact des médias qui risquent de mettre KO (les médias, le spectateur)…

28.01.2009

Le film résultant: Une piste à tester / creuser est celle de  “l’augmentation” du film marché par le visiteur / spectateur lui-même: il était prévu, dans le cadre initial du projet, de pouvoir ajouter une dimension textuelle au film sous forme d’un texte qui s’écrit sur (ou entre) les images montées.
Suite à une discussion entre Pascal, Jeanne et Ulrich, nous avons précisé cette envie en donnant les pistes de travail suivantes:
– le seul texte qui peut apparaître à l’image est le texte écrit par le visiteur / spectateur (on laisse tomber les vidéos-textes réalisées par l’équipe de réalisation – cela donne une dimension trop artificielle et “intello” au film);
– les textes s’écrivent une fois le parcours effectué, lors du visionnement sur le site internet. Il s’agit donc de concevoir un outil qui permette l’insertion d’un texte sur (entre) les images combinées. Esthétiquement, nous penchons pour une présentation du texte sous forme d’un texte défilant “machine à écrire” -> texte dynamique, qui “marche” à travers l’écran;
– points d’insertions du texte. pas n’importe où, n’importe quand… Possibles: sur des images noires, qui peuvent être de deux provenances: 1) lors d’un bout de parcours en dehors de la zone délimitée, on génére du rien (du noir); 2) des moments “clef” du parcours (rebroussement, répétition, boucle etc) qui sont marqués par du noir;
– ces “zones vides” entre les images permettraient l’insertion d’un commentaire ou plus généralement d’un texte subjectif où l’auteur est la personne qui a permis la réalisation de film; cette édition n’est pas obligatoire, mais bien sûr laissée au bon vouloir du spectateur.

A tester…

Share

Leave a Reply

You must be logged in to post a comment.