Archive for the ‘Notes’ Category

Graphisme pour l’Iphone (le WEphone)

Friday, December 12th, 2008

Vincent Jacquier a travaillé sur l’interface graphique de l’Iphone dont voici quelques screenshots provisoires:

Iphone_départ    Iphone_thematics    Iphone_thematics_2    Iphone_trace_enregsitrement    Iphone_trace_couleurs     Iphone_edition_trace     Iphone_help

Le détail des fonctionnalités:

Trajet
> Nouveau trajet (on arrive sur carte avec bouton start-stop)
> Vision données du trajet actuel (vitesse, distance, temps, date)
> Edition des films marchés (donner nom perso, effacer, voir trajet sur carte)
> Avancé: uploader trajets sur serveur (si c’est pas fait automatiquement après avoir appuyé sur stop)

Carte
> Réglages carte
> nom des rues (on/off)
> Réglages métadonnées (affichage médias sur la carte)
> nom artistique des médias (on/off)
> liste des thèmes (choix sur liste déroulante)
> liste des postures (choix sur liste déroulante)
> liste des villes (choix sur liste déroulante)
> liste des tags (choix sur liste déroulante)
> Avancé: mettre à jour métadonnées avec serveur (synchro)

Information
> mode emploi rapide
> FAQ
> contact help

Réglages utilisateur
> Nom utilisateur
> Nom des films par défaut

 

En aparté: si on appelait notre module embarqué sous le doux nom de WEphone ? (on passe du “je” au “nous”, ce qui fait sens non ?)…

Cela donne aussi d’autres combinaisons comme: MobileWE; les WEapps; les WEmovie(s)… remettre le collectif au milieu du village ? woui ?

Bon on va redevenir sérieux en 2009.

Share

Point de la situation fin 2008

Monday, December 8th, 2008

Cela devient une habitude, voici le point de la situation des divers chantiers en cours.

– Groupe “concept”:  composé de Jean-François Blanc, Pascal Amphoux, Nicolas Wagnières, Daniel Sciboz, Jeanne Macheret et Ulrich Fischer, ce groupe s’est réuni 4 fois depuis septembre afin de poser les bases conceptuelles pour tous les développements techniques, de définir le cadre de la recherche ainsi que de déterminer plus précisément les résultats escomptés. Pour l’heure il n’y a pas encore des résultats concrets à publier, mais après la dernière réunion de l’année (les 18 et 19 décembre) nous espérons pouvoir poser des bases solides concernant la manière d’indexer les données (liste de thèmes, sujets, tags etc), de définir une manière d’analyser les tracés (repérer des formes de parcours afin de définir la / les formes de montage) pour au final pouvoir aboutir à un équilibre “savant” entre l’analyse purement statistique et formelle et des règles de montage.

– Tournages: il n’y a pas eu beaucoup de tournages ces derniers temps, mais on a mieux défini le cadre de travail. Les grandes lignes sont: définition des lieux prioritaires (cf cette page), préciser les approches individuelles (à compléter sur cette page), nommer les types de plans manquants à l’heure actuelle (nous avons effectivement beaucoup d’images dites “contemplatives” -> nous devons plus nous impliquer et interagir avec ce qui se passe devant l’objectif); etc.

– Montage / indexation: Jeanne Macheret a fait le tour des médias existants (pas encore les photographies), elle a dérushé et digitalisé toutes les nouvelles images tournées (également celles produites par les étudiants Master Cinéma); actuellement elle s’occupe de produire des fichiers audio (spécifiquement pour l’Iphone) et de faire de l’ordre dans la liste des tags. Les chantiers ouverts: trouver un workflow pour l’intégration des images photographiques (avec coordonnées GPS intégrées), de garder un maximum les métadonnées sur toute la chaîne (tester avec d’autres logiciels que Final Cut afin de définir une méthode de travail idéale). Mais le gros du travail pourra démarrer avec le cms nouveau…

– CMS: Lionel Tardy est en train de travailler sur une version améliorée du CMS à partir de la nouvelle structure de base de données confectionnée par l’équipe de la HEIG. Normalement cette nouvelle version sera disponible pour tests fin janvier.

– Moteur d’analyse et de montage: L’équipe de la HEIG va attaquer ce gros morceaux dès début janvier afin de pouvoir tester une première version d’un moteur de montage pour la fin février.

– Iphone: Nicolas Goy a préparé presque toute l’ossature logicielle pour pouvoir tester en conditions réelles: analyse du trajet et mixage audio; présentation des données via des claques de métadonnées (nos “muages”). La grosse question actuellement consiste à déterminer si nous faisons passer un maximum de choses sur un serveur distant ou gardons les processus en local sur l’Iphone – en somme que l’Iphone envoie les données GPS via un canal data à un serveur qui fait tout le processing puis renvoie un flux audio déjà mixé au téléphone. Nous allons donc être dépendants de la solidité des réseaux de téléphonie, mais cela permet une plus grande souplesse (tout est centralisé sur un serveur) et puissance de calcul (sur ce point l’Iphone n’est pas très musclé…).

– Graphisme: Vincent Jacquier va retravailler les propositions graphiques faites pour l’Iphone et préparer une ossature graphique pour le site web public; une réunion au sujet de la charte graphique est prévue le 18.12 en milieu d’après midi.

– En vrac, les chantiers à venir: organisation de la présentation publique à Renens en juin 2009 (coordination avec la Mairie ainsi qu’avec Stéphane Blok et Daniel Demont qui vont également présenter un projet artistique lors du “festimix”); le site web public (donc autant les fonctionnalités de présentation de films marchés ainsi que la refonte des deux site actuels – le blog et le site ouvert); tournages encore et encore; tests à partir du moteur de montage; mises à jour de l’état de la recherche (ce point n’est pas à sous-estimer, ce d’autant plus qu’il y a le français et l’anglais en paralèlle); et puis également de préparer la phase 3 (valorisation, présentations publiques dans d’autres villes etc)…

Une belle et intense année 2009 qui s’annonce !

UF

Share

Compte rendu de la participation à la conférence “narration interactive”

Monday, December 1st, 2008

Le projet a été présenté dans le cadre d’une conférence sur la narration interactive à Erfurt en Allemagne par Ulrich Fischer, entre le 26 et le 27 novembre. Il s’agissait avant tout d’une “demo” du projet (le CMS, les diverses pistes graphiques etc), j’ai présenté puis discuté avec une vingtaine de personnes les divers éléments du projet. C’est toujours aussi difficile de donner une idée du projet en 3 phrases, mais avec quelques mots clefs (ah nos tags) c’est possible d’éveiller la curiosité des personnes. Le plus gros “malentendu” est toujours le fait que les personnes croient que le visiteur filme ses propres images, ils ont de la peine à s’imaginer les images placées dans une base de données territorialisée…
Ensuite, en donnant quelques exemples, on en vient à l’une des questions centrales du projet, à savoir “ce que ça va raconter”, ou également, “ce que nous allons filmer”. A ce sujet, ce serait très précieux (pour nous mêmes comme pour les personnes extérieures) d’avoir un exemple à montrer, histoire de tout de suite déterminer le cadre esthétique et artistique – j’espère qu’on arrivera d’ici mars de générer quelques films qui puissent fonctionner comme leviers.
Par ailleurs, et ça c’est positif, chaque personne qui s’est prise au jeu a développé ses propres versions / visions du projet (par exemple de pouvoir permettre à des personnes en chaise roulante de faire vivre leur relation à l’espace de cette manière là; on peut aussi penser à du cinéma pour aveugles, un acteur qui songe à intervenir directement dans l’espace urbain et influencer le trajet du visiteur etc).

Un peu de feedback de cette conférence:
– il s’agissait avant tout de présentations de projets de recherche portant sur la question de la narration fictionnelle interactive, donc en principe des considérations qui ne nous concernent pas directement. En effet, la plupart des projets se battent (et se cassent les dents) sur la question de la crédibilité des acteurs impliqués, ainsi que du point de vue pris par l’utilisateur (qui prend part à l’histoire en interagissant, souvent avec des clics souris, avec le flux narratif);
– les projets sont surtout issus de programmeurs / chercheurs / scientifiques, et donc les résultats ne tiennent pas vraiment la route au niveau artistique; on a beaucoup entendu d’histoires reprennant une esthétique et une narration existante dans les jeux vidéos;
– un projet que j’ai trouvé intéressant: Say AnythingA Massively Collaborative Open Domain Story Writing Companion. Ce projet travaille sur le concept du “crowdsourcing”, le fait de puiser dans une base de données qui est générée par un robot qui scanne les blogs. En somme, il n’y a plus d’auteur individuels mais une masse de personnes qui contribuent à la richesse de la base de données (sans rien faire, et sans le savoir…). C’est absurde, poétique et très juste par rapport au potentiel du médium; mais comme ce n’est pas assez narratif au sens classique du terme, pour les auteurs c’est une projet pas encore réussi…

UF

Share

Pistes en vrac

Tuesday, October 7th, 2008

En attendant d’autres références et pistes, voici une vidéo assez amusante: comment mixer des statistiques routières sur la carte d’une ville…


Cascade on Wheels: Traffic Mixer from steph thirion on Vimeo.

Et un blog (qui donne quelques pistes et exemples de visualisation de données sur une carte).

Share

L’état de nos nuages – ciel changeant avant l’été

Tuesday, May 27th, 2008

Un des points qui revient sans cesse, parce que nous n’avons pas encore trouvés de solution élégante et satisfaisante, est celui de la représentation de la base de données médias sur la carte du territoire – autrement dit: quelles informations (ou métadonnées) “remontent” à la surface en devenant une cible ou un point d’intérêt que le visiteur peut chercher.
C’est un élément important dans le sens que le visiteur doit pouvoir très rapidement et intuitivement sentir de quoi peut être fait le film qu’il va marcher tout en choisissant lui même dans quelle(s) direction(s) il a envie de le mener.

On peut prendre l’image d’un iceberg dont on ne voit qu’une petite partie de la masse – de la même manière, la plus grande partie des caractéristiques que nous aurons assignées à chaque médias demeurera invisible; mais par contre, on devrait pouvoir sentir leur présence à travers la manière dont le haut dépasse et flotte.

Une autre image que nous avons beaucoup employée est celle du nuage: une forme molle qui se laisse traverser, immatérielle et matérielle en même temps – finalement assez représentative de ce monde virtuel (les médias) que nous voulons implanter dans l’espace urbain…

Pour le moment, nous avions comme piste principale pour cette question de représentation les thèmes, c’est à dire de permettre une concentration du potentiel narratif à travers un thème “majeur” déterminé dans chaque média.
Mais nous nous sommes butés à la difficulté de trouver des thématiques suffisamment abstraites pour fonctionner sur n’importe quelle portion de territoire, tout en étant suffisamment concrètes pour se visualiser clairement dans chaque média, tout en n’oubliant pas qu’ils doivent également – à travers leur dénomination – susciter une envie de s’y plonger.

– NOUVELLES PISTES –

En discutant l’autre jour avec Pascal Amphoux et Nicolas Wagnières, nous avons retourné la question en invoquant les possibles suivants:

ne plus considérer des nuages différents qui se côtoient / se superposent (comme des ensembles différenciables avec des couleurs variées), mais comme des strates de nuages qui se trouvent à des altitudes différentes (et qui sont donc de natures différentes). Pour continuer avec des images, c’est un peu comme depuis un avion: on peut voir plusieurs couches de nuages, les unes masquant les autres et parfois laissant passer ce qui est notre base, la terre. Cette image est empruntée à Johan Van der Keuken (citation pas encore trouvée) qui compare la vision que l’on peut avoir d’un montage d’un film à un voyage en avion…

– cette nouvelle manière de voir implique donc l’arrivée d’une “nouvelle dimension”: l’axe du Z… ou la profondeur de l’espace. Se pose maintenant la question de comment on navigue dans cette profondeur: soit on passe d’une couche à une autre (en activant / désactivant les couches qui se superposent), soit à travers un réel mouvement qui les traverse (un zoom). Cette dernière solution est assez vertigineuse (c’est le cas de le dire) et demande une représentation différenciée des couches pour que l’on puisse sentir les natures différentes des nuages qui masquent plus ou moins partiellement notre territoire (le réel).

– cette tendance à superposer et non plus à juxtaposer vient également d’une analyse que l’on retrouve de différentes manières chez quelques théoriciens (dont Deleuze déjà cité ici auparavant). Pascal Amphoux propose la lecture suivante concernant 3 type de postures que l’on peut prendre face au réel:

  1. analytique: observation / passif -> dehors
  2. engagé: vie / interaction -> dedans
  3. poétique: esthétique / paysage -> dedans et dehors

Cette manière de voir les choses implique qu’il n’y a pas d’exclusion d’une posture par rapport à une autre: elles co-existent toutes en même temps mais les rapports entre elles fluctuent – et c’est justement les pondération et variations qui nous intéressent ici.
Ce que nous voulons tenter maintenant est la chose suivante: affecter une posture à chaque média tout en lui indiquant une valeur (entre 0 à 100). Ce qui n’est pas encore très clair est la combinaison ou l’exclusion de postures (si par exemple un média peut être à 40% analytique et à 60% poétique… ?).
Nous avons par contre déterminé la manière dont pourront être visualisées ces nuages (on a piqué cette séparation quelque part – c’est très classique):
-> 1 analytique en bleu
-> 2 engagé en rouge (tiens donc)
-> 3 poétique en vert

utiliser les titres de chaque média (on parle parfois de brique, mais c’est pas très digeste) comme “atome” et la constellation de titres comme des “cellules” (ou carrément des organismes ?!?): plus on est loin et plus les titres se superposent; on peut donc voir par la densité de noir les endroit qui rassemblent le plus de titres. En zoomant en avant sur la carte, la lisibilité augmente et on arrive à différencier les titres les uns des autres.
Autrement dit: un nuage, c’est une nuée de mots.

Mis à jour le 03.06.2008 UF

Share

Tournages fin avril – digest

Sunday, May 4th, 2008

Avant d’entrer dans les détails de ces tournages, voici quelques éléments concrets:
– nous avons tourné environ 6 heures d’images, ce qui correspond à environ 400 clips (start / stop caméra). Nous avons tourné avec des caméras très diverses, de l’appareil photo à la Z1 (HDV) en passant par une PD-150 (DV en standard définition) et une HVX-200 (DVCPRO HD);
– nous avons fait des prises de vues très variées également: interviews spontanés, discussions avec des habitants (surtout des enfants), plans photographiques cadre fixe (via trépied), prises de notes vocales en tournant en marchant, plans “matière” (réflexions et superpositions) etc;
– en plus de ces prises de vues, Gwenola Wagon et Stéphane Degoutin ont effectué des prises de son et Daniel Sciboz a fait des tests GPS qui seront publiés et comparés ultérieurement.

Le but est de mettre en ligne quelques exemples (bruts et prémontés) prochainement sur le blog, idéalement liés à une carte.

Nous allons maintenant attaquer le choix des médias (in/out dans les clips choisis) ainsi que leur catalogage (ajout des métadonnées), ce qui va prendre dans les 2 à 3 semaines. D’ici fin mai nous pourrons donc placer les premiers médias sur la carte et faire quelques simulations (non automatisées) – prémontages de quelques médias afin de donner des intentions et de tester quelques combinaisons.

Maintenant, quelques considérations post tournage:

  • nous avons tourné en focalisant notre attention sur le fait de trouver le “bon” rapport au territoire, en cherchant à travers quelques improvisations des points de repère et éléments marquants. Le but était que chaque personne impliquée puisse trouver un rapport juste entre sa subjectivité (intérêts de fond et de forme, fonctionnement personnel) et la multitude de pistes qui se dégagent au quotidien… Comme le projet est complexe à appréhender, nous avons décidé de nous immerger dans ce premier temps dans l’espace choisi en évitant de forcer le trait (de plaquer une idée sur le réel) mais en étant un maximum ouvert et curieux. Et, Renens nous a très bien accueillis en nous offrant quelques belles rencontres.
  • il ressort du premier visionnement des rushes qu’il y a déjà quelques combinaisons intéressantes “dans l’air”, qui semblent pouvoir fonctionner formellement ou de média en média; il reste toujours la question des combinaisons narratives sur l’ensemble du film qui demeurent pour le moment trop lointaines (on va y arriver plutôt dans la phase 2) pour que l’on puisse tirer des conclusions et élaborer des concepts définitifs. (Pistes: voix off, cartons inter-titres / texte, chaîne narrative indexée dans les métadonnées etc)
  • nous devons absolument mettre de l’ordre dans l’intitulé et la dénomination des concepts; pour le moment le gros point à résoudre est lié à ces nuages, aux thèmes (on s’est dit de ne plus les appeler thèmes, mais on a pour le moment pas trouvé mieux).
  • dans le cadre de cette discussion sur les thèmes, on a abordé encore deux points importants: d’une part le contenu de ces thémes et d’autre part la logique qui sous tend à leur dénomination / définition et leur contenu.
    En somme, si l’on veut être pragmatique, on devrait pour le moment fonder la logique des thèmes sur les obsessions des divers participants: c’est chaque réalisateur qui défini son thème principal (il ne devrait pas en avoir plus que 5), ce qui tend à dire que chaque réalisateur aura “son” nuage.
    L’autre alternative, plus compliquée à mettre en oeuvre car nécessitant plus de temps, serait de réafirmer les thématiques proposées en les consolidant à travers la perspective du “rapport physique”; “rapport intellectuel” etc. Le problème, c’est que pour l’heure la grande partie des tournages ne s’est pas faite avec ce cadre là (pour les raisons évoquées en tout premier).

UF; le 04.05.2008 UF

Share

LES IMAGES DES REPERAGES

Tuesday, February 12th, 2008

Après avoir passé un moment à trouver une bonne méthode pour catégoriser les images, nous (Paulo Alcântara, Vittoria Pollato, Ulrich Fischer) avons en premier lieu choisi 289 images parmis les 1300 prises sur les 3 jours de repérages. C’est sur cette base là que nous avons fait les premiers tests d’ajouts de métadonnées

Méthode choisie:

  1. Nomination uniforme des fichiers, par lot (jour-mois-année + photographe + reperages + numérotation-incrémentale)
  2. Détermination de l’intérêt de la photo dans le cadre du projet (garder la photo = 2 étoiles).
  3. Catégorisation par couleurs
  4. Catégorisation par style, type, thème

Cette méthode permet de rapidement classer les photos selon un critère particulier: des images qui ne font pas réellement “sens” toutes seules prennent une autre valeur lorsqu’elles apparaîssent à côté d’images de même type: d’un coup, on focalise sur un élément, sur des détails qui se perdaient dans la profusion des informations… On a le sentiment de gagner une vision, un sentiment plus précis, ou plus “obsessif” par rapport à l’espace visité.

Nous avons sortis 3 exemples de ce catalogue:

-> Diaporama par ordre de prise de vues (a noter que l’ordre n’est pas parfait: nos caméras n’avaient pas toutes l’heure d’hivers donc il y a des décalages d’une heure entre certain photographes…)

-> Diaporama par thème (Dés-orientation / dé-localisation / perte)

-> Diaporama par type (murs, grillages)

Conclusions:

– Il est difficile, voire impossible, d’attribuer un thème rétroactivement à des images qui n’ont pas été prises dans ce but là (en l’occurence, il s’agissait de repérages très improvisés) -> par la suite, la catégorisation par thème sera plus facile à indexer dans le sens que les médias (images, vidéos etc) seront créés en fonction d’un thème choisi ;

– La plupart des images ont été estampillés avec une bonne dizaine de “tags” (c’est des vues réalistes qui contiennent une multitude d’éléments, dont certains sont prioritaires – mais il y a souvent un peu de tout partout… ce qui ne simplifie pas la tâche) -> pour le moment, nous travaillons “à l’aveugle” – une fois que la base de donnée centralisée sera opéartionnelle, on pourra faire des choix avec une meilleure connaissance des implications que ces choix vont déterminer ;

– Il est souvent difficile de trancher dans le choix à faire si l’on indexe une image avec un type / catégorie ou pas -> par la suite, on devrait pouvoir attribuer les appartenances non pas avec OUI ou NON, mais avec des pourcents d’appartenance (une sorte d’échelle graduée) ;

– Ce premier test a permis de vérifier l’importance de la bonne saisie de ces métadonnées si nous voulons avoir un système qui fasse sens, mais également par ricochet à quel point c’est compliqué et touffu (cela demande une sacré concentration – un peu comme un jeu de memory… sans doute que les enfants seraient les rois dans cet exercice ?!?)

UF

Share

Proposition de recette pour le projet

Wednesday, February 6th, 2008

Lors de mes tentatives d’élaboration d’un texte de présentation plus compréhensible que les textes dans le dossier du projet, j’ai imaginé faire une sorte de recette (comment cuisiner le projet): ingrédients nécessaires, manière de les préparer, temps de préparation, manière de servir le projet (de le rendre appétissant)…

En voici une première ébauche (non terminée):

Ingrédients

– Prenons un espace urbain délimité, de préférence un espace aux qualités sociales, architecturales et urbanistiques variées et contrastées, d’une taille d’environ 2Km carré (Carte Renens provisoire) ;
– Elaborons une liste de thématiques qui condensent / traduisent les enjeux ;
– Mettons sur pied une équipe de réalisation en spécifiant pour chaque personne la “mission” (espace de tournage, manière, forme, outils, style etc) ;
– Produire des séquences audio-visuelles dans cet espace urbain en cherchant à développer les thématiques autant dans le contenu que dans la forme (photographies – séquences films ou vidéo – sons – prises de notes sous forme de voix off etc) ;
– Ajoutons ces médias (ainsi que d’autres séquences audiovisuelles déjà existantes en provenance d’autres villes) à la base de données audiovisuelle en leur donnant une adresse géographique précise (localisation sur l’espace urbain délimité) ainsi que des métadonnées (catégories – qualifications subjectives et objectives des médias) ;
– Construisons un « outil de navigation » : module embarqué qui affiche autant la carte de la ville que la représentation des thématiques en offrant le positionnement actuel grâce à un module GPS intégré ; il permet également d’écouter en cours de chemin les sons qui sont liés avec les espaces traversés (et qui ainsi donnent une idée de ce que le film peut proposer).

… (en cours!)

Préparation

Afin de faire fonctionner tout le système d’une manière automatisée, il faut encore mettre en place les éléments suivants :
– Solutions logicielles pour constituer la base de données ; pour analyser le tracé GPS puis convertir cette analyse en plan de montage
– Solution logicielle / matérielle afin de mettre en ligne les médias choisis par le système d’analyse
– Site web : l’espace de présentation des films « marchés »

Partie réalisation

– Mettons en place un lieu de départ, dans lequel les visiteurs peuvent voir des films déjà réalisés, se documenter sur le projet et surtout venir chercher l’outil de navigation qui va les accompagner durant leur parcours ;
– … (en cours!)

Partie dégustation

– Concevons un site internet … (en cours!)

Share