Archive for the ‘Tests’ Category

Les premiers films parisiens !

Tuesday, September 7th, 2010

Finalement, après une réécriture complète du moteur de montage et le débogage de l’application iPhone quelques films test sont visibles sur le site:
http://www.walking-the-edit.net/fr/films/films-choisis/

Le moteur fonctionne que sur la logique de proximité: on entend / voit les médias les plus proches de notre position actuelle. Il n’y donc pas encore de corrélation entre vitesse et durée ainsi que de continuité thématique ni de choix de scénario d’usage. Les films donnent donc encore un sentiment d’aléatoire – c’est “normal” et va (doit) être corrigé d’ici la présentation publique lors de la journée du patrimoine.
Nous allons encore ajouter un filtrage par scénario d’utilisation (film historique; film sur le quotidien actuel; film “tour du monde en 80 pas”) ainsi qu’un choix de qualité (les médias les mieux notés seront choisis prioritairement).

Il faut ajouter que pour garantir la meilleure expérience sur le terrain, il faut avoir un iPhone récent (3Gs ou 4G), un bon débit data ainsi qu’une bonne réception GPS. Il y a encore quelques petits bugs liés à des restrictions du SDK de Apple, mais dans les grande lignes le dispositif technique fonctionne bien; le plus gros chantier étant la programmation du moteur de montage…

Quelques images de l’interface de l’application HE pour iPhone (ça marche de manière très fluide et organique, magique…):

Share

Tests du logiciel iPhone

Thursday, August 19th, 2010

Ce chantier qui est en cours depuis plusieurs mois est proche d’arriver à des premiers résultats utilisables – gros soupir de soulagement de voir que ça commence à fonctionner dans les grandes lignes, mais il y a encore plein de petits détails à affiner.
Un grand merci déjà à Nicolas Goy et Lionel Tardy pour leur travail assidu.

Voici quelques captures d’écran du mode d’enregistrement:

L’interface avec les bulles fonctionne plutôt bien, le mouvement est assez fluide et la réactivité sur un iPhone 3G encore correcte (l’expérience sera meilleure sur un 3Gs ou un 4G). Il y encore un certain de nombre de choses à améliorer:
– des séquences reviennent trop souvent (3 fois sur 4 on commence avec le même plan); il y a trop de répétitions lorsque l’on repasse par le même endroit;
– il y a des plus ou moins grandes coupures audio et /ou de lecture des bulles sur la timeline;
– la vitesse ne s’affiche pas encore;
– on va améliorer l’affichage et ajouter quelques légendes explicatives (que signifient les couleurs ?);
– ajouter un mode “verbose” ou “debug” pour pouvoir avoir plus d’infos sur le fonctionnement du dispositif (cf ligne du bas sur l’image);
– diverses améliorations de fonctionnalités du logiciel

Un des parcours test est visible ici: http://www.walking-the-edit.net/edit/view/465/

Le but est maintenant de pouvoir finaliser cette application, de la mettre à disposition pour des personnes ciblées pour tester le dispositif puis de pouvoir envoyer l’application à Apple pour validation et mise à disposition sur l’AppStore. Si tout se passe bien, l’application sera librement téléchargeable dès début septembre…

Share

Simulation interface iPhone

Tuesday, July 27th, 2010

Lionel Tardy a fait un test pour simuler comment on peut présenter le film en train d’être marché sur l’iPhone: http://www.aboutblank.ch/we/circles/

Pour le moment c’est basé sur aucune donnée. Juste des temps, tailles et couleurs aléatoires mais ça donne une idée de comment ça “bouge”…


Share

Premiers tests de moteur

Tuesday, May 11th, 2010

En attendant de pouvoir générer un film avec les paramètres décrits dans ce post, voici les premiers avec “stalker”, notre moteur de montage.

Le tracé (en vert-orange sur la carte) avec les clips choisis (les plans audio-visuels présentés ici sous forme de punaises); en dessous, la timeline (notre playlist en deux étages) qui présente les plans de type “contexte” (piste 2) et les plans “ambiance” (piste 1) ->cf ce post pour les détails.
Il est donc possible d’imaginer le film résultant (si l’on sait à quels clips se reportent les noms dans la timeline)…

timeline

Et une autre capture d’écran de notre nouveau CMS (l’interface de travail online pour notre base de données et le moteur de montage) :
– la combinaison du tracé (en orange) avec le lissage de vitesse (en vert), qui lui même est présenté sous forme de graphe ci dessous;
– les variations longitude / latitude
– et le lissage de vitesse (c’est là que l’on voit que sans lissage, il y a du bruit et ce qui est enregistré en brut depuis l’iPhone n’est pas vraiment utilisable)

graphes

Share

Smartcity – premier film

Thursday, January 28th, 2010

Nicolas Goy, le programmeur du projet, a refait toute l’architecture du dispositif (3 mois de travail). Nous avons maintenant un tout nouveau moteur de montage, mais qui est encore dans un stade rudimentaire: il fonctionne par choix de voisinnage. En effet, la logique de montage est actuellement uniquement celle de chercher le média le plus proche à un point / moment donné; le plan trouvé est joué dans son intégralité, puis à la fin de celui-ci, un nouveau plan qui est le plus proche du parcours à ce moment là est trouvé et joué, etc.

Le film test ci dessous est donc une version basique, qui montre cette logique de “couplage” spatial, sans autre forme d’analyse ou de règles (rapport vitesse – durée ou continuité thématique par exemple).

La carte avec le trajet et les médias choisis (on voit bien la superposition des médias sur la trajectoire):

trajet film paris

Share

Nouvelle vidéo de présentation

Wednesday, December 30th, 2009

Grâce à quelques retours critiques, j’ai modifié quelque peu le film de présentation en lui ajoutant un préambule; voici la version modifiée et mixée.

Share

Vidéo de présentation

Tuesday, September 29th, 2009

Depuis le rendu du projet de recherche en juillet, pas mal de choses se sont passées sur lesquelles je vais revenir prochainement; en attendant, voici la version provisoire du film de présentation que je suis en train de faire.

 

 

Share

Déboguage post présentation

Thursday, June 18th, 2009

Finalement nous avons pu présenter le dispositif au public lors du festival Festimixx les 12 et 13 juin; encore 2 jours avant, ça ne marchait pas vraiment. Mais grâce à l’énergie et aux compétences réunies de Florian Poulin, Nicolas Goy et Lionel Tardy, nous avons pu nous faire une idée du fonctionement global du dispositif dans un cadre de présentation publique.

Il y a plusieurs conclusions (provisoires, ça va encore bouger) qui s’imposent avec plus ou moins de clarté:
– cela reste très difficile de donner une idée précise et efficace du projet à des personnes qui “débarquent”. Les points qui coincent: comment on “marche” son film ? est-ce que l’on doit filmer soi même ? est-ce que l’on est filmé ? Il y aussi le maniement de l’Iphone qui n’est pas évident pour les personnes qui ne connaissent pas cet appareil. Beaucoup de gens s’attendaient à voir quelque chose (des images) lors du parcours; mais au retour, s’il y a eu des sons intéressants, ils n’ont pas dit avoir été frustrés de l’expérience…
– dans ce sens, il faut trouver une carotte efficace (pour le moment, c’est de “marcher son film”) pour rendre les gens curieux. Il faudrait pouvoir tabler sur la dimension ludique, performative, interactive et améliorer la dimension collective (pour le moment, l’expérience est assez solitaire, même si plusieurs personnes ont voulu faire la marche ensemble).

Concernant le déboguage du dispositif, les problèmes suivants reviennent régulièrement (du plus important au moins urgent):
– les 70% – 80% des médias choisis ne proviennent pas de la proximité de la trace enregistrée (exemple extrême). Parfois le décalage est intéressant, mais c’est vraiment du hasard – ce sera sans doute meilleur si nous maîtrisons en amont quels médias peuvent être rencontrés selon les endroits visités;
– il y a des médias qui nous “collent”: par exemple celui qui est visible sur ce film. On a essayé de l’indexer de manière à ce qu’il y ait le minimum de chances qu’il soit pris, mais rien n’y a fait: il est revenu sur presque 50% des films, la plupart du temps au début. Et comme il est long… C’est un bogue (?) vraiment gênant – est-ce qu’il y aurait une priorité mal réglée ou alors un “cache” qui fait du zèle ? Je n’ai pas trouvé de logique à l’apparition des fichiers qui reviennent souvent (il y en a une petite dizaine, dont 3 qui sont très collants): ce n’est pas lié à la localisation, mais plutôt au départ ou lorsque le système semble “patiner”…
– il n’y a pas de corrélation entre la vitesse du parcours enregistrée et la durée des médias. Que l’on marche vite ou qu’on soit au repos, il n’y a pas de logique de durée de média et donc de rythme de montage. C’est vraiment dommage, puisque finalement le parcours ne semble pas influencer le film (ni au niveau du tracé ni au niveau de la vitesse…).
– souvent, les deux premiers médias sont: très court et très long ensemble;
– on n’a pas pu constater de continuité thématique;
– certaines personnes nous on reporté qu’ils ont entendu des choses différentes que ce que le film montre et fait entendre au retour;
– certaines personnes également on reporté le fait qu’il y a eu des coupures de son (mais Nicolas travaille déjà sur ce problème);
– on sent qu’il y a un certain aléatoire (ou du moins, une certaine fragilité dans les variables dont on dépend, comme les satellites, les antennes des opérateurs etc) dans le cas des films générés par deux personnes qui ont marché ensemble.

Il est à noter qu’il y a parfois des exemples de films qui sont assez réussis (pas sous toutes les coutures cependant), ce qui montre que c’est possible d’arriver à des résultats intéressants, mais c’est assez difficile à évaluer si c’est un coup de chance ou que les divers facteurs qui s’influencent parmi ont permis un meilleur équilibre final…

UF, 18.06.2009

Share

Déboguage n°2

Tuesday, June 9th, 2009

Aujourd’hui mardi, nouvelle journée de tests. Nicolas Goy a fait un écran de visualisation sur le WEphone des médias sélectionnés par le moteur de montage, ce qui permet d’avoir une idée bien plus précise et en direct de ce qui est en train de se dérouler.
Voici une capture d’écran lors d’une ballade:

WEphone_visualisationtest 

Les problèmes les plus flagrants:

  • il y a presque toujours en premier 2 fichiers: 1 court et un long; il faudrait éviter d’avoir un fichier trop long pour commencer. Ce qui serait aussi idéal, c’est de limiter la durée des médias durant les X premières minutes de la ballade (à max 30 secondes de durée)…
  • après un moment, le système commence toujours les films avec les mêmes médias, indépendamment où on est. Lors des derniers tests (5-6 films), j’ai toujours commencé avec un court et un long, les mêmes… Il faudrait faire de manière à ce que chaque film démarre autrement – donc presque aller chercher dans l’historique les médias choisis et interdire qu’on puisse avoir ceux-la.
  • de manière générale, il y a beaucoup de redites – je me suis balladé dans un endroit bien chargé en médias, et le système me ressort assez régulièrement les même médias (et cela, sur les quelques derniers tests des derniers jours – j’ai souvent les mêmes médias, que j’ai entendus maintenant à travers tous les tests de ces derniers jours).
  • le système choisit souvent des médias qui sont hors du périmètre du parcours (cf post précédent)
  • il y a eu superposition de voix (devant un salon de coiffure, j’ai eu 3-4 fois le coiffeur qui me causait, assez vertigineux comme effet !).
  • il y a peu de rapport entre la vitesse du parcours et la durée des médias choisis – j’ai presque toujours marché à la même vitesse et j’ai eu des médias longs et courts pèle mêle.

On s’approche d’un état publiable, mais il y a encore ces ajustement là à faire pour permettre une expérience satisfaisante.

Un grand merci à Nicolas Goy, Florian Poulin et Lionel Tardy qui travaillent d’arrache pied pour nous permettre de présenter le travail de 1 an et demi au public !

UF, 09.06.09

Share

Déboguage n°1

Sunday, June 7th, 2009

Afin de pouvoir déboguer précisément, il faut trouver l’erreur puis comprendre comment elle a pu avoir lieu – ce qui n’est pas évident au vu de toutes les étapes et paramètres qui entrent en considération dans le dispositif. Lionel a mis en place un outil très pratique, qui permet, via le CMS, de visualiser le tracé sur la carte ainsi que les médias sélectionnés par le moteur de montage.
Cela donne cette image:

CMS_carteparcours_test1

Le parcours a été effectué par Lionel, il correspond parfaitement au chemin effectué (ce qui n’est pas le cas de tous les parcours enregistrés). Ensuite, on voit qu’il a entendu un certain nombre de médias qui ne sont pas placés par dessus son parcours (petits médias parasites ? – à voir avec Florian pour vérifier pourquoi ils ont été choisis); puis, ce qui s’est aussi passé pendant le parcours, est l’apparition du très long média qui “écrase” les autres.
Là, il y a deux solutions: on réduit le rayon des médias (ce que je suis en train de commencer de faire, à maximum 100 mètres – ce qui évite d’appeller des médias qui sont centrés loin de l’endroit où l’on passe), et la deuxième solution (complémentaire) consiste à fournir comme média de départ une sorte de générique de 10 secondes (musique + ambiance) qui fait que le moteur peut avoir à sa disposition un petit historique afin de déterminer si la personne marche ou pas. Actuellement, le risque est de fournir au marcheur un médias long sans savoir s’il marche ou pas.

à suivre…

UF, 07.06.2009

Share