Archive for the ‘Outils’ Category

Le dispositif applicatif

Tuesday, May 3rd, 2011

Avant d’entrer plus dans les détails via des billets plus spécifiques, voici quelques lignes sur le dispositif applicatif mis en place pour les besoins du projet “Walking the Edit”.

Le dispositif qui est à la base de Walking the Edit est le fruit de quatre années de recherches et de développement. Démarré fin 2007 comme un projet de recherche au sein du Master Cinéma dans le cadre des HES-SO (écoles spécialisées Suisses), cet « écosystème » s’est amélioré au fil du temps et des avancées technologiques (comme par exemple avec l’arrivée du SDK de l’iOS pour iPhone).
Le dispositif fonctionne aujourd’hui indépendamment de son échelle d’application. D’une grande souplesse tant du point de vue de la personnalisation que de l’optimisation, le dispositif existe actuellent en version beta et donne des premiers résultats visibles sur le site web http://walking-the-edit.net/fr.
La version 1.0 de l’ensemble du dispositif applicatif est prévue pour l’été 2011.

Avec quels modules est composé ce dispositif applicatif ?

1) Une base de données composée des métadonnées relatives aux fichiers vidéos, audio, textes, stockés dans le « nuage» (un serveur web ou cloud server).
Tout en respectant les standards internationaux (Dublin Core, EBU), la base a été développée de manière à répondre à nos besoins spécifiques.
Une interface REST / http complète permet d’accéder de manière souple et hautement paramétrable à tout le contenu de la base de données. Utilisant PostgreSQL avec un serveur d’interface distribué qui est programmé en Ruby On Rails, la base est hébergée sur des cloud serveurs dédiés. Elle est donc facilement évolutive.

2) Un outil de gestion partagé en ligne permettant de gérer directement les fichiers et les métadonnées qui leur sont associées. Ce système permet de télécharger, d’organiser, trier, indexer, placer sur une carte, décrire, classer, retrouver, enrichir et distribuer les données via des métadonnées dans un environnement multi-utilisateurs. Cela va permettre, entre autres, de fournir un accès public à certains documents selon des critères et des scénarios déterminés en amont. Ou de manière plus spécifique et originale, de pouvoir constituer un film à partir de la traduction de la forme d’un parcours vers la forme d’un film.

Chaque média est catalogué et indexé selon deux critères.
Indexation objective :
– date de tournage, date de création du fichier
– auteur, caméramen, ayant-droits
– lieu de tournage
– durée du plan
– format vidéo, codec…
– moment de la journée, cadre, focale…
– etc…

Indexation subjective :
– thématique (le contenu du plan)
– sujet (ce qu’il y a dans le plan)
– tags (descripteurs de contenu)
– qualité (note du plan)
– type de montage possible
– géolocalisation et taille du plan sur la carte
– etc…

Actuellement en cours d’élaboration, une nouvelle version de cet outil devrait voir le jour fin juin 2011. Elle sera programmée comme une application web (basée sur la technologie Cappuccino).

3) Le moteur de montage. Il s’agit d’un algorithme ad hoc. Il calcule à partir d’un trajet donné, pour chaque point de localisation, un score qui permet de choisir le bon document à intégrer au sein de la « timeline » de montage de l’utilisateur – et ce, en temps réel. Le moteur de montage s’occupe dans un premier temps d’analyser la forme du parcours (linéaire, chaotique, recoupements, etc) afin de constituer la forme du montage correspondant. Dans un second temps, il puise dans la base de données les fichiers qui conviennent le mieux à l’analyse de la forme et aux impératifs des règles de montage (continuité narrative). Cet algorithme est encore expérimental mais a déjà donné des résultats probants.

4) Une application iPhone. Disponible gratuitement sur l’app store d’Apple d’ici début juin 2011, cette application native enregistre le parcours et calcule en temps réel le film qui en résulte. Un stream audio est constitué à partir des documents indexés et permet à l’utilisateur d’entendre son film via ses écouteurs. Voici un billet sur son fonctionnement actuel.

5) Un site web. Nos interfaces REST supportent le JSONP, ce qui permet à n’importe quel site internet d’avoir un accès complet aux contenus originaux ainsi qu’aux résultats de l’utilisation du dispositif (les films en l’occurence).

Share

Nouvelle application iPhone !

Thursday, January 20th, 2011

Après près de deux mois de chantier, nous sommes à deux doigts de pouvoir envoyer à Apple la toute nouvelle application WE totalement réécrite en natif. Pour mémoire, la première application pour iPhone était développée comme une “web’app”, donc en utilisant beaucoup de ressources réseau et avec des désavantages décrits dans ce post.

Marco Scheurer et son équipe de Sente ont travaillé en lien avec Nicolas Goy pour développer les aspects suivants:
– écrire l’application en mode natif, pour pouvoir maximiser les chances que l’application puisse être validée chez Apple et qu’elle puisse être plus réactive et maîtrisable;
– nous avons décidé de centraliser un maximum de processus dans le téléphone pour éviter d’être trop dépendants du réseau et de permettre une autonomie plus grande à l’utilisateur. Ainsi, le moteur de montage et la base de données sont installées puis synchronisées sur le téléphone, c’est juste le flux audio qui est envoyé depuis le serveur (dans le nuage chez Amazon) au téléphone;
– actuellement, pour des raisons de fiabilité de débit nous avons décidé de limiter la qualité audio à 48kbit/sec – c’est un compromis en attendant que Zencoder nous mette à disposition de l’adaptive streaming pour la mi février;
–  l’application est encore au stade beta, et la première version qui pourra être envoyée à Apple sera encore très basique et limitée autant dans les fonctionnalités que dans l’interface graphique. Nous n’avons pas encore pu implémenter la fameuse interface à bulles – là nous avons juste une playlist qui défile et qui permet d’avoir une idée plus précise des médias joués (durée, nom artistique, thématique);
– afin de donner une idée à l’utilisateur des contraintes techniques existantes (signal GPS et fiabilité du réseau 3G DATA), nous avons ajouté deux petites indications de couleur pour signaler si tout est ok (indicateurs au vert) ou s’il y a un problème avec le GPS ou le canal DATA (indicateurs en rouge);
– tout le système est actuellement prêt à pouvoir automatiser toute la chaîne depuis le déclenchement de l’enregistrement du parcours à la sauvegarde du film (avec un nom personnalisé) visible directement après sur le site internet.

Les limitations qu’il faut connaître:
– il faut désactiver la mise en veille du téléphone (mise en veille = jamais), sinon dès que l’appareil se met en veille ça coupe le son (et tous les processus); nous cherchons encore la manière de continuer les processus (écriture du tracé via le GPS, sélection des médias via le moteur de montage) et l’écoute du flux audio;
– après 3 à 5 minutes, il arrive souvent qu’au milieu de la lecture d’un média le son s’arrête, mais le compteur temporel du média continue: il faut simplement arrêter le film (clic sur stop), puis le sauver et recommencer un autre film;
– en dessous de 5 médias joués, il n’est pas possible de sauver le film (pour éviter d’avoir trop de films avec juste 2 à 3 médias)
– et comme décrit plus haut, la qualité audio est actuellement mauvaise du fait de la forte compression; cela va être amélioré dès la mi février avec la fonction de l’adaptive streaming;
– avant de marcher son premier film il faut créer son utilisateur sur une page spécifique (à venir).

Pour l’utilisation, veiller aux conditions suivantes:
– bien charger son téléphone avant de faire une ballade: l’application est très gourmande de batterie et va la vider très vite (à cause du GPS et des accès réseaux intensifs)
–  désactiver le WIFI (être sûr que l’on reste en 3G lors de la ballade, le fait de switcher du WIFI au 3G peut parfois entraîner des perturbations)
– utiliser le dispositif dehors: l’application marche seulement avec un bon signal GPS (le voyant position doit être vert, cela veut dire qu’il y a une précision d’au moins 100 mètres, ce qui n’est pas le cas si la position est calculée via les antennes de téléphonie) et il faut aussi avoir un bon signal DATA (le voyant vert audio doit aussi être vert, ce qui signifie que le flux audio est transporté via le réseau cellulaire).
– si l’application reste capricieuse (surtout avec les anciens modèles d’iPhone, le 3G par exemple), il faut désinstaller l’application du téléphone et la réinstaller.

Attention aux “pièges” suivants:
– selon l’état du réseau, il se peut que lorsque l’on clique sur Stop ou Sauver (le film) la commande prenne du temps à être prise en compte; il faut donc éviter de recliquer sur le bouton. Si l’on clique sur le bouton démarrer après avoir cliqué sur stop, on redémarre un film et le  film marché est irrémédiablement perdu!
– il faut au minimum 5 “médias” (plans joués) pour pouvoir sauver; il est conseillé de faire des enregistrements entre 2 minutes et 20 minutes. Au delà, risque de bug et sans doute aussi film trop long à regarder après…

Toute personne intéressée de tester l’application peut me contacter par mail dès le 24 janvier 2011.

Un grand merci à Marco et Nicolas pour leur travail de qualité et leur patience !

Share

Premiers tests de moteur

Tuesday, May 11th, 2010

En attendant de pouvoir générer un film avec les paramètres décrits dans ce post, voici les premiers avec “stalker”, notre moteur de montage.

Le tracé (en vert-orange sur la carte) avec les clips choisis (les plans audio-visuels présentés ici sous forme de punaises); en dessous, la timeline (notre playlist en deux étages) qui présente les plans de type “contexte” (piste 2) et les plans “ambiance” (piste 1) ->cf ce post pour les détails.
Il est donc possible d’imaginer le film résultant (si l’on sait à quels clips se reportent les noms dans la timeline)…

timeline

Et une autre capture d’écran de notre nouveau CMS (l’interface de travail online pour notre base de données et le moteur de montage) :
– la combinaison du tracé (en orange) avec le lissage de vitesse (en vert), qui lui même est présenté sous forme de graphe ci dessous;
– les variations longitude / latitude
– et le lissage de vitesse (c’est là que l’on voit que sans lissage, il y a du bruit et ce qui est enregistré en brut depuis l’iPhone n’est pas vraiment utilisable)

graphes

Share

Moteur de montage

Sunday, May 9th, 2010

Nicolas Goy, le programmeur / développeur du projet, est en train de configurer le moteur de montage sur la base du tout nouveau “écosystème“.

Voici quelques détails sur le futur moteur intitulé Stalker, composé de la mécanique suivante (addition des règles qui filtrent de plus en plus finement dans la base de données pour “trouver” le média qui fonctionne le mieux dans la cohérence parcours/film):

  • proximité (chercher tous les médias qui sont superposés par dessus notre position au moment t)= ne prendre en considération que les médias de proximité. Il faut faire le calcul non pas du point où on est et calculer les distances les plus courtes vers les “épicentres” des médias les plus proches, mais partir de la spatialisation de chaque média sous forme d’un disque (le rayon est spécifié automatiquement en fonction de la durée), et ne prendre que les disques qui se superposent au dessus du point / du tracé. Cela veut dire par exemple qu’un média court qui est tout proche, mais dont le disque ne se superpose pas par dessus notre tracé ne sera pas pris en considération – à l’opposé, un média relativement lointain mais dont le rayon / la durée est important se superpose à notre position et sera donc par conséquent pris dans ce premier filtrage;
  • vitesse/durée (la vitesse de marche définit la durée des plans) = selon une table de mapping à spécifier, il s’agit de chercher les médias qui correspondent à la vitesse de notre déambulation. Plus on va vite, plus le moteur va chercher des plans courts; plus on ralenti, plus on va recevoir des plans longs. Les cas limites: on est arrêté depuis 10 minutes et on se met à courir, quelle est la réactivité possible du système ? Autre question à résoudre: quelle fenêtre temporelle on prend – vitesse moyenne instantanée, “lissée” sur 3, 5, 10 secondes ? à tester… et: possible de passer via des variables éditables pour pouvoir personnaliser le mapping entre vitesse et durée ?
    Voir le schéma de lissage de vitesse calculé sur base d’un parcours:
    schema_vitesse_mai2010
  • continuité thématique (on tente de garantir une continuité narrative / causale) = la thématique du premier média du film est choisie en fonction du nombre occurrences d’une thématique dans le premier filtrage de proximité. C’est la thématique la plus représentée qui va être choisie pour les X premières minutes du film. Pouvoir changer les variables min/max de la durée d’une thématique (par exemple min 3 minutes, max 9 minutes).
  • choix de qualité (prendre le média qui a la meilleure note)

-> normalement à ce moment là, il ne devrait rester qu’un seul “survivant”, le média qui “gagne” sa place dans le montage…

Le film est constitué de deux pistes:
1) une piste “ambiance” – il s’agit avant tout de garantir une base visuelle et audio qui serve de base de continuité (surtout pour l’audio). Il n’y a que des sons d’ambiance et des images plus abstraites, d’ambiance.
2) une piste “contexte” – il s’agit de la piste insert, qui vient poser des plans avec des sons plus contextuels et de la parole (interview etc).
Cette méthode est avant tout utile pour éviter qu’il y ait deux médias avec parole en même temps, et pour assurer une base de continuité sur laquelle viennent se poser des plans d’insert plus spécifiques.

Nous espérons pouvoir tester ce moteur dès mi mai, afin de pouvoir recalculer les films existants sur le site sur base des parcours enregistrés; l’étape d’après est de pouvoir tester la composition d’un film directement à Renens à travers l’utilisation de l’application iPhone qui devrait être prête d’ici fin mai.

Share

Déboguage n°2

Tuesday, June 9th, 2009

Aujourd’hui mardi, nouvelle journée de tests. Nicolas Goy a fait un écran de visualisation sur le WEphone des médias sélectionnés par le moteur de montage, ce qui permet d’avoir une idée bien plus précise et en direct de ce qui est en train de se dérouler.
Voici une capture d’écran lors d’une ballade:

WEphone_visualisationtest 

Les problèmes les plus flagrants:

  • il y a presque toujours en premier 2 fichiers: 1 court et un long; il faudrait éviter d’avoir un fichier trop long pour commencer. Ce qui serait aussi idéal, c’est de limiter la durée des médias durant les X premières minutes de la ballade (à max 30 secondes de durée)…
  • après un moment, le système commence toujours les films avec les mêmes médias, indépendamment où on est. Lors des derniers tests (5-6 films), j’ai toujours commencé avec un court et un long, les mêmes… Il faudrait faire de manière à ce que chaque film démarre autrement – donc presque aller chercher dans l’historique les médias choisis et interdire qu’on puisse avoir ceux-la.
  • de manière générale, il y a beaucoup de redites – je me suis balladé dans un endroit bien chargé en médias, et le système me ressort assez régulièrement les même médias (et cela, sur les quelques derniers tests des derniers jours – j’ai souvent les mêmes médias, que j’ai entendus maintenant à travers tous les tests de ces derniers jours).
  • le système choisit souvent des médias qui sont hors du périmètre du parcours (cf post précédent)
  • il y a eu superposition de voix (devant un salon de coiffure, j’ai eu 3-4 fois le coiffeur qui me causait, assez vertigineux comme effet !).
  • il y a peu de rapport entre la vitesse du parcours et la durée des médias choisis – j’ai presque toujours marché à la même vitesse et j’ai eu des médias longs et courts pèle mêle.

On s’approche d’un état publiable, mais il y a encore ces ajustement là à faire pour permettre une expérience satisfaisante.

Un grand merci à Nicolas Goy, Florian Poulin et Lionel Tardy qui travaillent d’arrache pied pour nous permettre de présenter le travail de 1 an et demi au public !

UF, 09.06.09

Share

Déboguage n°1

Sunday, June 7th, 2009

Afin de pouvoir déboguer précisément, il faut trouver l’erreur puis comprendre comment elle a pu avoir lieu – ce qui n’est pas évident au vu de toutes les étapes et paramètres qui entrent en considération dans le dispositif. Lionel a mis en place un outil très pratique, qui permet, via le CMS, de visualiser le tracé sur la carte ainsi que les médias sélectionnés par le moteur de montage.
Cela donne cette image:

CMS_carteparcours_test1

Le parcours a été effectué par Lionel, il correspond parfaitement au chemin effectué (ce qui n’est pas le cas de tous les parcours enregistrés). Ensuite, on voit qu’il a entendu un certain nombre de médias qui ne sont pas placés par dessus son parcours (petits médias parasites ? – à voir avec Florian pour vérifier pourquoi ils ont été choisis); puis, ce qui s’est aussi passé pendant le parcours, est l’apparition du très long média qui “écrase” les autres.
Là, il y a deux solutions: on réduit le rayon des médias (ce que je suis en train de commencer de faire, à maximum 100 mètres – ce qui évite d’appeller des médias qui sont centrés loin de l’endroit où l’on passe), et la deuxième solution (complémentaire) consiste à fournir comme média de départ une sorte de générique de 10 secondes (musique + ambiance) qui fait que le moteur peut avoir à sa disposition un petit historique afin de déterminer si la personne marche ou pas. Actuellement, le risque est de fournir au marcheur un médias long sans savoir s’il marche ou pas.

à suivre…

UF, 07.06.2009

Share

Graphisme – pistes pour le site web

Friday, May 22nd, 2009

Le chantier du graphisme est complexe – il s’agit de proposer des interfaces claires, intuitives et ayant un même air de famille entre le WEphone et le site web.
De la même manière que pour le WEphone, nous n’aurons pas le temps ni les moyens d’aboutir à une version évoluée et complète du site web d’ici la fin de la phase 2, donc les efforts actuels sont portés sur le fait de déterminer les intentions, les idées et les fonctionnalités que nous aimerions voir sur le site web final.

Dans les grandes lignes, les intentions et envies sont les suivantes:
– le site doit être vivant et modulable, il doit rendre compte à sa manière des enjeux contenus dans le projet (rapport à la mémoire; réapropriation d’un territoire et de médias; auteur collectif; forme de l’inachevé et de l’ouverture, etc). On doit également sentir qu’il s’agit de jouer avec les dimensions spatiales et temporelles: espace réel / espace digital; potentialités d’un espace (réel ou digital); temps multiples (le passé dans le temps réel; le futur à l’horizon du présent; le temps du parcours et le temps du film, etc)
– la place du spectateur: il n’est pas seulement passif mais peut aussi devenir actif – et le but du site est de l’inviter à le devenir. Il s’agit donc d’imaginer plusieurs stratégies qui l’y amènent (marcher son film; commenter les films des autres; éditer des modules etc). Le site comme moteur d’enregistrement de son parcours à travers les liens qui y sont possibles… (d’où l’idée du bouton d’enregistrement qui s’allume sur le logo, cf plus bas)
– degré de personnalisation: découlant de ce qui est développé ci dessus, inviter le visiteur du site d’utiliser celui-ci en combinant les modules et les filtres de recherches selon ses envies. Le site est, d’une certaine manière, un gestionnaire de base de données avec lequel on peut accéder et afficher les informations qui nous intéressent…
– et bien sûr, il faut que le contenu éditorial soit le plus complet et “excitant” possible: il s’agit de parler autant à un public plus large (habitants, touristes d’une ville) qu’à des spécialistes habitués à ce genre d’aventures.

Ce qui est posé actuellement est surtout une grille de base qui est très modulaire; la plupart du temps on a une zone centrale qui peut présenter soit du contenu éditorial soit du contenu “vivant” (les films etc), entourée par une zone verticale et horizontale qui donne des contenus supplémentaires selon le contexte (news; commentaires; films; parcours; modules).

Premier exemple: la homepage.

siteweb_home_mai09

A savoir:
– la zone de menu est encore en évolution; il s’agit de rester sobre, mais actuellement c’est trop neutre et standard (donner plus de “profondeur”, de volume, de hiérarchie).
– En dessous du logo, il y aurait une zone de texte défilant avec un lot de phrases qui décrivent le projet (style “un lieu de rencontre entre l’espace urbain et l’espace digital”; “un dispositif qui permet de générer un film en marchant” etc);
– de la même manière, le texte sous “Le dispositif” change (il y a 3-4 types de textes différents);
– un film, sous forme d’une capture d’écran, est promu en home et donne un exemple avec les commentaires et statistiques sur le résultat escompté;
– on peut filtrer les films affichés via une liste déroulante (actuellement, trié selon le nombre de vues et par date) directement dans l’entête;
– Edit box: c’est l’endroit où on trouvera les fonctionnalités d’édition (notre boite à outils). Elle n’est opérationnelle que si on est loggué (ce qui est possible de faire en tout temps). On pourra y changer / éditer les commentaires que l’on a fait sur les films; si l’on a marché un film, on peut via cette interface ajouter des intertitres au film (en fonction des règles édictées), on peut y concevoir des modules personnalisés (fonction encore très embryonnaire, mais qui permet de concevoir des boites qui présentent de manière imagée des statistiques, par exemple une représentation de la vitesse en rapport avec le nombre de médias, ou les thématiques par rapport aux sujets etc); on peut indiquer les préférences de tri, de recherche etc
Questions ouvertes:
– première ligne de menus: idéalement ne garder que le login et mettre le reste ailleurs…
– permettre de hiérarchiser (via des couleurs, formes ou séparations) les niveaux de contenus (cf ci dessous)

Deuxième exemple: la page du visionnement des films.

siteweb_movie_mai09

Il y a plusieurs idées ici, qui sont assez difficiles de rendre compte sur une image statique:
– le logo prend des couleurs différentes en fonction de la navigation. Il y a deux pistes (encore toutes fraîches, à vérifier et tester):
1) couleurs qui donnent une indication sur le niveau ou le type d’information. Le rond en magenta “s’allume” si on est logué, si l’on enregistre une action (texte, module etc); le premier / détermine les informations éditoriale (textes, extraits image etc) et le double // détermine les “informations collectives” (les films, parcours, commentaires), ce qui est vivant de manière indépendante…
2) couleurs qui donnent l’information du niveau de navigation. Il y a 3 niveaux: la home; le premier niveau de menu; le deuxième niveau de menus.
– il reste également à voir comment on “éteind” notre salle de cinéma (la page qui accueille le duo trajet / film), de manière à pouvoir se concentrer sur l’essentiel, tout en ayant la possibilité d’y voir également quelques statistiques (selon une présentation que l’on peut personnaliser)…

Encore pas mal de travail…!

UF, 22.05.2009

Share

Le premier walk !

Tuesday, May 19th, 2009

Aujourd’hui, 19 mai, il a été possible de faire le premier walk avec flux sonore – grâce au travail acharné de Nicolas Goy qui a écrit environ 400’000 lignes de codes dans diverses langues…
Pour le moment, il se passe les choses suivantes:
On fait un login (mail + mot de passe) via l’application WE sur l’Iphone, on arrive sur un écran avec un bouton start. Rapidement après, une bulle jaune arrive au milieu de l’écran, le premier média est choisi, et on entend le son du média avec une bonne qualité. Pendant la lecture du média, cette boule travers l’écran, suivie d’une deuxième (second média sélectionné), et parfois d’une autre qui vient s’insérer sur / entre l’actuelle (cela fait un mix sonore de 2 pistes). J’ai eu droit à quelques collages intéressants…
C’est assez miraculeux de voir fonctionner tous ces éléments, avec autant de variables et d’éléments potientiellement perturbateurs.
Il y a tout de même encore des choses à régler, qui portent sur:
– le flux audio coupé: le flux audio a tendance à couper, parfois souvent, parfois longtemps, parfois les deux. Il y a diverses choses à préciser (une mémoire tampon sur l’Iphone, la bande passante qui sort du moteur de stream, l’opérateur – Orange – qui délivre un signal 3G pas propre, du code etc), cela prendra donc encore quelques jours de tests avant d’arriver à quelque chose de propre à ce niveau là.
– la localisation et l’enregistrement du parcours (avec lissage du tracé GPS): pour le moment, il est trop tôt de dire si tout joue à ce niveau, mais il s’agira de faire des tests variés dès la semaine prochaine.
– le moteur de montage: pour le moment, je n’ai pas vu d’adéquation entre la vitesse de mon parcours et la durée des médias; il me semblait aussi que les médias n’étaient pas toujours liés à l’endroit où j’étais, mais là il faudrait vérifier sur l’historique de l’enregistrement; ce qui était aussi troublant, c’est que dans un certain périmètre, le moteur me donnait toujours les mêmes médias, dans le même ordre, alors que je faisais des mouvements et parcours différents. Il me semble qu’à ce niveau là, il y a encore pas mal de petites (et grandes dans un deuxième temps) à régler.

Pour résumer, nous allons porter nos efforte sur les éléments suivants:
– propreté du stream audio (qualité, continuité)
– adéquation entre la localisation et les médias choisis
– adéquation entre la vitesse du parcours et la durée des médias choisis
Il n’y aura pas d’interface spéciale pour montrer le processus en coure, mais on peut afficher une liste des médias choisis (noms, durées, appartenance thématique etc); c’est surtout utile pour des fins de tests et débogage.
Il reste encore à voir la relation entre le film final et le flux audio entendu; pour le moment, nos efforts se portenront surtout sur l’expérience sur le terrain, et si on arrive à présenter un film, tant mieux.

Ca se concrétise !

UF, 19.05.2009

Share

CMS – compte d’accès pour visualisation

Friday, April 24th, 2009

Pour les personnes curieuses de voir notre outil de travail principal (import des médias, indexation, placement des médias, gestion des règles d’analyse et de montage), le CMS, il est désormais possible d’y accéder en lecture seule (donc sans autorisation d’écriture). Il faut se connecter à l’adresse suivante:
http://cms.walking-the-edit.net
Login: WE
Mot de passe: recherche

Dans l’onglet “Médias”, il y a deux listes déroulantes qui perettent de chercher / trier les médias selon des critères; pour voir tous les médias, il faut faire “ID” > 0 et “recherche”.
Dans l’onglet “Carte”, il est possible de voir le placement des médias, avec le même fonctionnement qu’expliqué au dessus.
Les autres onglets sont moins importants / intéressants (et encore en développement d’ailleurs).

Share

Graphisme – piste pour l’interface du WEphone

Thursday, April 9th, 2009

En attendant les autres écrans (en cours de réalisation), voici déjà une version (un état) de ce qui fonctionnera sur notre WEphone. il s’agit donc de présenter le processus en cours, c’est donc des visuels qui vont être animés (mouvement de droite à gauche, plus ou moins vite en fonction de la taille des médias: plus ils sont longs, plus c’est lent; plus ils sont courts, plus c’est rapide…)

 WEphone_090409

 

Vue du WEphone: lors du parcours, il est possible de suivre l’évolution du processus de montage en cours. Ici un écran qui montre les thématiques présentes dans le montage (et atteignables sur le territoire); il va y avoir plusieurs présentations de champs de métadonnées qui donneront une indication sur le processus en cours, d’objectiver et d’amplifier l’expérience de la marche génératrice d’un film.
A gauche, le film marché (le passé); au centre, la tête de lecture (le présent); à droite, les médias potentiellement accessibles (le futur).

Plus de vues suivront…

UF 09.04.09

Share