Archive for the ‘Workflow’ Category

Quelques schémas

Sunday, March 3rd, 2013

Dans le cadre de projets que nous avons déposé ces derniers temps, nous avons, grâce à la précieuse collaboration de Anna Cavalleri, pu réaliser un certain nombre de schémas.

Une image vaut mille mots: l’enjeu pour pouvoir communiquer le projet de manière simple et directe, et d’être le plus économe en mots – ces schémas vont pouvoir nous y aider.

Voici le schéma de la plateforme logicielle Memoways (qui est à la base du dispositif artistique Walking the Edit):

Plateforme Memoways

 

Le workflow du projet: réalisation de contenus, indexation puis réception interactive.

workflow

 

Share

Recherche graphiste

Sunday, November 25th, 2012

Une esquisse d’interface pour l’application mobile


La société Memoways cherche un/e graphiste pour réaliser les projets suivants:
– design d’une application mobile (iPhone + Android), voir ce billet sur l’application actuelle. Il y a une base déjà existante, mais encore beaucoup de choses sont à inventer;
– design de sites web (améliorations des sites http://walking-the-edit.net et http://memoways.com). Idem, les bases sont là, mais à faire évoluer;
– améliorations graphiques sur les documents de communication, réflexion sur des modules de présentation (slides, vidéos…)
– design d’une application MAC OSX, infos. Tout est à faire pour ce chantier là.


Ces projets sont évolutifs: nous cherchons donc une personne qui est intéressée de travailler à long terme pour la société. Pour le moment un financement de départ est acquis, le but étant de compléter la somme initiale avec des nouvelles entrées financière réalisées en fonction de la dynamique créée.


Profil recherché:
– graphiste et designer d’interaction avec expérience dans la conception d’applications et de sites web
– habitant dans l’arc lémanique (Genève idéalement)
– disponible de suite; 80% sur les deux premiers mois, puis la suite à convenir selon les développements


Qualités et aptitudes:
– pouvoir travailler en équipe, en lien principalement avec des développeurs
– penser pixel et interaction, non pas papier et statique
– penser “game design” et expérience artistique plutôt que design fonctionnaliste et utilitariste
– bonnes connaissances et expérience avec les outils web et les développements d’UI actuels
Share

Les point sur les chantiers actuels

Wednesday, May 5th, 2010

Il y a eu un retard de presque un mois sur le planning établi à cause du service non fonctionnel chez notre hébergeur Ikoula: nous avions pris un abonnement chez eux pour pouvoir héberger la base de données, le CMS, le moteur de montage, le site web, le blog etc. Au cours du transfert du serveur du développeur, nous nous sommes rendu compte que leur solution ne fonctionnait pas. Nous nous sommes battus pendant plus de deux semaines, pour au final acheter un PC que nous avons mis dans une salle serveur, et maintenant tout fonctionne bien.
Moralité: ne pas aller chez Ikoula; prendre un abonnement avec une assistance personnalisée et essayer d’avoir de la chance de tomber sur des personnes compétentes. Merci Ikoula de nous avoir fait perdre temps et argent (je ne parle pas des dommages collatéraux de patience érodée, d’énergie perdue etc).

Bon, maintenant que la base technique fonctionne, nous sommes en train de:
– travailler sur le moteur de montage en implémentant des règles de montage (un post là dessus va suivre sous peu);
– une fois que nous avons trouvé la bonne équation (le bon dosage des variables et des règles), nous allons recalculer tous les films existants sur le site web à partir de tracés enregistrés. Cela veut dire que le films résultants vont ENFIN (presque une année après la fin de la recherche) avoir une cohérence et raconter quelque chose. J’espère que cette étape sera effectuée à la mi mai;
reconfigurer l’interface du CMS principal (accès aux données, indexation des métadonnées, réglages du moteur de montage etc). C’est un gros chantier, qui devrait prendre 3 mois à partir de maintenant. L’idée est de commencer par les points les plus urgents et importants (import de données, indexation basique) puis d’affiner en parallèle à une utilisation concrète;
programmer l’app pour iPhone, pour pouvoir tester et faire tester le moteur de montage en temps réel en effectuant un parcours à travers les deux lieux fonctionnels (Renens et la CIUP à Paris) -> j’espère que ce sera bon pour fin mai;
mettre à jour le blog (mise à jour wordpress + relooking + ajouts de fonctionnalités) et le site web (passage au player vidéo HTML5, fonction de partage, lien plus étroit avec le blog <-> news etc)

Il devrait y avoir donc tout bientôt pas mal de nouveautés, du concret… à suivre.

Ulrich

Share

Planning des chantiers techniques

Friday, February 12th, 2010

Voici un planning prévisionnel des travaux techniques prévus sur WE pour les 5 mois qui viennent.
Attention, ce planning est grandement lié aux réponses de subvention et de la dynamique avec les divers partenaires et collaborateurs: il s’agit donc en premier lieu de voir l’ordre des chantiers (chronologie des travaux à faire) dans un monde idéal (toutes les réponses sont positives).

Février:
– Base de données. Nicolas Goy migre la base de donnée et crée un nouvel applicatif pour la gérer (basé sur django et python). Le serveur est également remplacé par un serveur dédié;
– Moteur de montage. Tests avec le moteur de montage pour arriver à recompiler les films marchés à Renens et faire un film démo pour Paris (sur base du parcours test). L’enjeu est de pouvoir présenter sur le site internet des films qui soient plus solides que les résultats actuels (qui sont une sorte de random absolu) dès que possible.

Mars:
– CMS. Lionel Tardy démarre le chantier de l’adaptation du CMS sur la nouvelle base de données (afin de pouvoir importer du nouveau matériel et de pouvoir indexer). Ce chantier va durer 3 à 4 mois – mais il sera possible de travailler (avec fonctions réduites) en parallèle de son travail.
– Moteur de montage. En fonction des premiers résultats, améliorations, nouveaux tests etc.

Avril:
– CMS, suite du travail
– Application iPhone (basé sur un site web – presque rien est en local sur le téléphone): démarrage de la programmation d’une application de base (enregistreur GPS, affichage playlist et écoute du stream audio), qui permette de tester le dispositif dans son ensemble (réactivité, fonctionnement sur le terrain). Cette application pourrait servir pour des tests techniques internes, mais également de faire essayer à des personnes choisies (subventionneurs, collaborateurs, partenaires) dès le mois de juin 2010.

Mai:
– CMS, suite du travail
– App iPhone, suite

Juin:
– CMS, suite et fin du travail
– App iPhone, suite et fin du travail

Il est envisageable de faire des tests poussés sur le territoire de Renens dès le mois de juin (grâce aux 3000 médias qui sont déjà indexés) et ainsi faire une première évaluation de ce qui fonctionne, de ce qu’il faudrait optimiser, ajouter etc.

Share

Compte rendu réunion technique du 7 avril

Thursday, April 9th, 2009

Voici le compte rendu de la réunion qui a rassemblé:
– Laura Raileanu (LR)
– Nicolas Goy (NG)
– Florian Poulin (FP)
– Lionel Tardy (LT)
– Ulrich Fischer (UF)

Nicolas Goy (NG) va faire un schéma des workflows globaux d’ici milieu avril. Cela permet d’avoir une vision d’ensemble plus imagée et concrète des processus et des logiques de “passages de témoin” entre applications, moteurs, serveurs etc…

CMS:
Le CMS développé par Lionel prend de plus en plus d’importance, les fonctions suivantes vont lui être rajoutés (en parenthèse: par qui, quand):
– table pour les variables du moteur d’analyse et des règles de montage (NG, mi avril). FP donne les informations à NG pour les champs à mettre; LT va indexer ces tables de manière dynamique dans le CMS (système flexible) une fois qu’ils sont créés. But: pouvoir définir les variables pour l’analyse ainsi que l’ordre de filtrage des règles ainsi que les MIN et MAX. Le moteur de montage de FP va directement aller chercher les chiffres dont il a besoin dans ces tables (par exemple, de commencer par la continuité thématique qui est définie avec un minimum à 3 minutes et un maximum à 10 minutes, puis continuité de sujet, etc)
– table pour les settings de l’Iphone (NG, mi avril). Permet de centraliser les réglages qui affecteront le mixage ainsi que la présentation du montage en cours sur l’Iphone (par exemple de définir les échelles de temps de la présentation, de la lecture, la courbe logarithmique utilisée pour présenter la taille / longueur des médias etc)
– table pour la création des users / walkers: pouvoir créer les profils directement dans le CMS (et de les gérer par là également). LT communique avec NG pour les besoins et la manière de faire (NG, mi avril)
– table pour la génération des films (une sorte de batch, avec playlist); LT et NG (pour quand ?)

IPHONE:
NG explique ce qu’il a fait jusqu’à maintenant:
– mise en place d’un serveur de stream (lecture, mixage et envoi de plusieurs fichiers audio à partir des fichiers flv de la base de données). Important: garder les mêmes réglages (actuellement: mono 44.100 kHz, mp3); également, pour éviter des problèmes de compréhension et de mélange qui sature, il faut mixer les sons lors de la création / exportation des médias dans FinalCut. Nous allons définir des normes de ces prémix lors des prochaines exportations.
– NG a églement mis en place un média server qui sert de centrale d’échange entre les divers appareils / logiciels / scripts qui tournent en parallèle. A chaque parcours, une instance (session) est créé dans le média server; le serveur de stream devient alors une sorte de serveur ( une instance) dans le serveur de média – même chose avec le moteur de montage…
– NG va programmer l’application sur base des diverses indications et maquettes graphiques, en simplifiant au maximum: écran de login (user + pass); écran de présentation du processus en cours (avec variantes de sets de métadonnées ?); possibilité de recevoir une image du parcours / film généré (via mail + image sur un site). Il va intégrer dès mi mai le graphisme développé par Dimitri Delcourt.
– Questions ouvertes: gestion de l’échelle temporelle (adapter vitesse de défilement à la taille des médias: plus le média est gros / long, plus le défilement est lent; plus le média est petit / court, plus le défilement est rapide); gestion de l’échelle de présentation des médias calquée sur une courbe logarithmique.
– il va créer pour la présentation de juin une application téléchargeable depuis l’APP store; cela simplifiera l’installation de cette application sur des iphones des visiteurs. UF est en train de chercher un set d’une dizaine d’Iphones pour mi juin.
– Tout le paramétrage de l’Iphone se passe depuis le CMS (cf ci dessus)
– NG va faire un prototype à partir des fonction de base de l’Iphone, on va pouvoir tester dès début mai si notre logique tient (stream de données et d’audio, de présentation des métadonnées de manière fluide, la gestion des échelles etc)

MOTEUR DE MONTAGE:
– FP a étudié 2 méthodes d’analyse, et est reparti depuis le début dans une direction qui puisse gérer la complexité (tu peux nous écrire quelques lignes avec quelques détails là dessus ?)
– Il a besoin de travailler dessus jusqu’à mi mai, date à partir de laquelle nous pourrons faire des tests. Par contre, tout sera déjà prêt sur le CMS et dans le passage de main entre les processus et les opérations (cf le schéma de NG qui va arriver)

Ci dessous, quelques précisions apportées par Florian Poulin quant au travail qu’il est en train d’effectuer:
“Il y a deux approches possibles pour résoudre le problème de création d’un film à partir d’un parcours (respectant un ensemble de contraintes parfois contradictoires), qui est en fait un problème d’optimisation multi-objectifs :

1)      Algorithme exact : Cette approche permet de trouver directement la solution exacte au problème (la meilleure solution possible au problème d’optimisation). Elle peut être résolue en représentant un parcours de marcheur sous forme d’un graphe où chaque noeud représente un instant t du parcours, et chaque arc représente le choix de la lecture d’un média m depuis l’instant ti (noeud de départ de l’arc) jusqu’à l’instant tj (noeud d’arrivée de l’arc).
En analysant le parcours de l’utilisateur ainsi que les médias accessibles dans l’espace où il se trouve (et où il se trouvera dans les secondes/minutes qui suivent), on peut construire le graphe de tous les choix de médias possibles, satisfaisant les contraintes de couverture des médias sur la carte. Idéalement, sur chaque arc on devrait stocker un coût associé au choix du média, calculé à partir des diverses contraintes du projet (et cumulé au coût de l’arc précédent). Or, de part la nature des contraintes (dépendant de l’ensemble du chemin parcouru et non pas uniquement de l’instant présent), il n’est pas possible de calculer ce coût efficacement.
Une fois le graphe construit, on peut facilement énumérer tous les filmes possibles en parcourant le graphe (depuis la fin, les chemins menant à un film de la longueur souhaitée pointant vers le dernier noeud du graphe).
Si le calcul du coût avait pu être réalisé, l’arc pointant vers le dernier noeud et possédant le coût minimum désignerait l’arrivée de la meilleure solution possible au problème. Comme ce calcul n’est pas possible, il est nécessaire de parcourir toute les solutions possibles pointant vers le dernier arc, et de les évaluer une à une pour trouver laquelle satisfait le mieux les diverses contraintes. Cette opération n’est pas possible en raison du nombre trop élevé de solutions possibles (notamment induites par la définition des médias éditables). Leur simple énumération (sans leur évaluation) prend plusieurs heures pour un film de 5 minutes. (La solution est abandonnée)

2)       Algorithme itératif (recherche par voisinage) : Cette approche est radicalement différente. Au lieu de viser directement la meilleure solution, on va se promener dans l’espace des solutions du problème (incluant les bonnes solutions, les mauvaises solutions, les solutions aberrantes, mais également quelque part la solution optimale).
Ce parcours dans l’espace des solutions ne se fait pas manière totalement aléatoire, mais en se déplaçant de solutions voisines en solutions voisines (solution proches les unes des autres, avec une légère variation), en tâchant à chaque étape de se déplacer vers une meilleure solution, ceci afin de converger au final vers la solution optimale au problème (ou tout au moins, à une bonne solution). Seul problème : si on se contente de se déplacer d’une solution vers un de ses voisins améliorants, on se retrouve rapidement coincé dans ce qu’on appelle un optimum local (une solution meilleure que tous ses voisins, mais qui n’est pas l’optimum global). Il existe heureusement toutes sortes d’algorithmes pour éviter de rester piégé dans un optimum local (recuit simulé, algorithmes génétiques, recherches avec tabous, etc. à = méta-heuristiques).
Cette solution est la solution retenue (et en cours d’implémentation). Les principales difficultés de sa réalisation sont notamment la définition du voisinage (qu’est-ce qu’un film voisin d’un autre ?) et l’évaluation de la qualité d’une solution (intégration de l’ensemble des contraintes artistiques imposées pour un film donné).”
Florian Poulin, 08.04.09

Questions à résoudre:
– comment on gère les décalages temporels entre les divers processus ? Sachant qu’il y a plusieurs décalages (surtout s’il y a plusieurs parcours qui se déroulent en même temps), il faut qu’il y a un système d’anticipation / prédiction qui puisse garantir une certaine fluidité et réactivité. A priori, il y aurait un décalage d’une à deux heures entre le parcours et le film fini, présentable.
– pouvoir décrire le travail effectué (pour les non techniciens, pour pouvoir transmettre à d’autres techniciens): la question de la documentation technique (sans aller jusqu’au mode d’emploi). Daniel Sciboz va contacter NG, LT et VJ pour leur poser quelques questions surtout ayant trait à la présentation de la carte, mais à voir avec lui à quel point on peut ouvrir cette question à la présentation “non technicienne” des divers développements techniques effectués dans le cadre de ce projet.

UF, 09.04.2009

Share

Point de la situation fin 2008

Monday, December 8th, 2008

Cela devient une habitude, voici le point de la situation des divers chantiers en cours.

– Groupe “concept”:  composé de Jean-François Blanc, Pascal Amphoux, Nicolas Wagnières, Daniel Sciboz, Jeanne Macheret et Ulrich Fischer, ce groupe s’est réuni 4 fois depuis septembre afin de poser les bases conceptuelles pour tous les développements techniques, de définir le cadre de la recherche ainsi que de déterminer plus précisément les résultats escomptés. Pour l’heure il n’y a pas encore des résultats concrets à publier, mais après la dernière réunion de l’année (les 18 et 19 décembre) nous espérons pouvoir poser des bases solides concernant la manière d’indexer les données (liste de thèmes, sujets, tags etc), de définir une manière d’analyser les tracés (repérer des formes de parcours afin de définir la / les formes de montage) pour au final pouvoir aboutir à un équilibre “savant” entre l’analyse purement statistique et formelle et des règles de montage.

– Tournages: il n’y a pas eu beaucoup de tournages ces derniers temps, mais on a mieux défini le cadre de travail. Les grandes lignes sont: définition des lieux prioritaires (cf cette page), préciser les approches individuelles (à compléter sur cette page), nommer les types de plans manquants à l’heure actuelle (nous avons effectivement beaucoup d’images dites “contemplatives” -> nous devons plus nous impliquer et interagir avec ce qui se passe devant l’objectif); etc.

– Montage / indexation: Jeanne Macheret a fait le tour des médias existants (pas encore les photographies), elle a dérushé et digitalisé toutes les nouvelles images tournées (également celles produites par les étudiants Master Cinéma); actuellement elle s’occupe de produire des fichiers audio (spécifiquement pour l’Iphone) et de faire de l’ordre dans la liste des tags. Les chantiers ouverts: trouver un workflow pour l’intégration des images photographiques (avec coordonnées GPS intégrées), de garder un maximum les métadonnées sur toute la chaîne (tester avec d’autres logiciels que Final Cut afin de définir une méthode de travail idéale). Mais le gros du travail pourra démarrer avec le cms nouveau…

– CMS: Lionel Tardy est en train de travailler sur une version améliorée du CMS à partir de la nouvelle structure de base de données confectionnée par l’équipe de la HEIG. Normalement cette nouvelle version sera disponible pour tests fin janvier.

– Moteur d’analyse et de montage: L’équipe de la HEIG va attaquer ce gros morceaux dès début janvier afin de pouvoir tester une première version d’un moteur de montage pour la fin février.

– Iphone: Nicolas Goy a préparé presque toute l’ossature logicielle pour pouvoir tester en conditions réelles: analyse du trajet et mixage audio; présentation des données via des claques de métadonnées (nos “muages”). La grosse question actuellement consiste à déterminer si nous faisons passer un maximum de choses sur un serveur distant ou gardons les processus en local sur l’Iphone – en somme que l’Iphone envoie les données GPS via un canal data à un serveur qui fait tout le processing puis renvoie un flux audio déjà mixé au téléphone. Nous allons donc être dépendants de la solidité des réseaux de téléphonie, mais cela permet une plus grande souplesse (tout est centralisé sur un serveur) et puissance de calcul (sur ce point l’Iphone n’est pas très musclé…).

– Graphisme: Vincent Jacquier va retravailler les propositions graphiques faites pour l’Iphone et préparer une ossature graphique pour le site web public; une réunion au sujet de la charte graphique est prévue le 18.12 en milieu d’après midi.

– En vrac, les chantiers à venir: organisation de la présentation publique à Renens en juin 2009 (coordination avec la Mairie ainsi qu’avec Stéphane Blok et Daniel Demont qui vont également présenter un projet artistique lors du “festimix”); le site web public (donc autant les fonctionnalités de présentation de films marchés ainsi que la refonte des deux site actuels – le blog et le site ouvert); tournages encore et encore; tests à partir du moteur de montage; mises à jour de l’état de la recherche (ce point n’est pas à sous-estimer, ce d’autant plus qu’il y a le français et l’anglais en paralèlle); et puis également de préparer la phase 3 (valorisation, présentations publiques dans d’autres villes etc)…

Une belle et intense année 2009 qui s’annonce !

UF

Share

Point de la situation novembre 2008

Sunday, November 9th, 2008

Cela fait maintenant plus de deux mois que la phase 2 du projet a démarré, voici des informations et nouvelles sur les chantiers en cours:

Base de données:  Lionel Tardy et Florian Poulin ont jeté les bases pour une adaptation de la base de données. Il s’agit avant tout de mettre à niveau la base existante avec les nouveaux champs spécifiés dans ce document, ainsi que d’en optimiser le fonctionnement (noms de champs en anglais etc).

CMS: Des premières améliorations ont été effectuées par L. Tardy (visualisation des médias sur la carte), mais le gros des changements se fera une fois que la base a été finalisée par la HEIG, entre la fin 2008 et janvier 2009. Les améliorations porteront sur: la recherche “intelligente” et multicritère; pouvoir afficher des médias définis sur la carte (affichage spatialisé) dans le but de pouvoir simuler les combinaisons de médias en fonction d’un critère choisi; import de métadonnées directement depuis des fichiers QuickTime et des données EXIF contenues dans des photographies; possibilité d’enregistrer des “preset“ lors du catalogage des médias afin de ne pas remplir à chaque fois les informations qui restent identiques pour une série de médias; etc.
En somme, il sagit de concevoir une interface qui permettra de maîtriser le placement des médias ainsi que leur indexation en vue de favoriser des combinaisons qui “fassent sens”…

Iphone: Nicolas Goy a bien avancé (l’Iphone est apprivoisé…) et implémenté la capacité d’enregistrer un parcours (via le GPS et la triangulation des antennes GSM), d’envoyer ce tracé via le réseau DATA puis de le présenter sur une carte Google (voici un exemple avec un parcours + les médias). Actuellement il est en train d’implémenter la carte personnalisée faite par Vincent Jacquier, avec possibilité d’affichage de layers ainsi que le positionnement + tracé sur la carte et le mixage en temps réel de plusieurs fichiers audio; des premiers tests de menus et de fonctionnalités sont également en cours. Il sera possible courant novembre de faire des tests grandeur nature – le principal élément manquant actuellement est le moteur d’analyse et de sélection des médias.

Tournages: Florence Guillermin a rejoint l’équipe de réalisation (composée actuellement de Nicolas Wagnières et de Ulrich Fischer), elle a réalisé ses premiers repérages + tournages durant le mois d’octobre. Les étudiants en Master Cinéma ont également tourné des images à Renens dans le cadre d’un workshop; l’équipe de réalisation va continuer à faire des tournages régulièrement. Le but étant de collecter entre 1 et 2 heures de matériel vidéo par semaine et d’ajouter ces images à notre base de données. Les étudiants Masters vont tourner d’ici la fin de l’année leur film de semestre à Renens.

Édition des médias: Jeanne Macheret travaille depuis début novembre sur l’indexation des médias – elle va s’occuper spécifiquement de dérusher en collaboration avec les réalisateurs, puis de définir le in/out de chaque média dans Final Cut (en appliquant un rapide étalonnage). Le gros du travail se fera cependant dans le CMS. C’est un travail “de fond” très important qu’elle fera à mi temps sur les 6 mois qui viennent.

Analyse des parcours: une partie difficile – il s’agit d’analyser et d’interpréter le tracé avec plusieurs filtrages temporels (temps réel; temps “tampon” de 30sec; temps total écoulé depuis le début du parcours). Ces documents permettent de visualiser les enjeux (table des variables; base analyse trajet); mais ce n’est que des tests conséquents qui nous permettront de définir plus précisément comment nous allons interpréter le parcours effectué.

Règles de montage: c’est également une partie complexe du projet… Le groupe”concept artistique” est en charge de définir plus clairement quelles seront ces règles; il y a d’un côté la volonté de maîtriser la logique narrative du film final tout en laissant le parcours guider la trame formelle du film. Ce document donne quelques indications sur la manière dont les règles vont intervenir dans le processus de montage automatique.

Groupe “concept artistique”: composé de J.F. Blanc, N. Wagnières, P. Amphoux, D. Sciboz et de U. Fischer, ce groupe s’est réuni 2 fois et a avancé sur les questions conceptuelles et artistiques. Nous avons dessiné beaucoup de schémas, esquissé un workflow global du projet (cf le post de JF. Blanc), analysé les styles de montages cinématographiques, esquissé des liens entre forme du parcours et forme du film, discuté sur le dispositif mobile (l’intérêt d’ajouter des images aux sons), etc… Nous allons restituer notre parcours dans un document spécifique ultérieurement. Un des points qu’il s’agira de développer est le “catalogue des possibles” en relation avec l’équipe “valorisation”.

Graphisme: Vincent Jacquier a conçu une carte personnalisée qui sera intégrée dans l’Iphone, avec possibilité de présenter des layers personnalisés (nom des médias, attribution thématiques, sujet etc). Il est en train de travailler sur la charte graphique et les fonctionnalités pour l’Iphone et le site internet; plus d’informations sous peu.

Workshop Masters Cinéma: nous avons proposé à quelques étudiants des Masters un workshop sur les enjeux de la narration non linéaire; Gwenola Wagon, Nicolas Wagnières ainsi que Jean-François Blanc étaient de la partie. Nous avons invité Pierre-Yves Borgeaud qui a présenté son projet Xième, l’un des exemples qui a guidé la discussion sur la délicate question de la définition de la non linéarité… Un certain nombre d’enseignements sont sortis de cette semaine (3-6.11) sur lesquels nous allons revenir par la suite.

Voilà pour l’heure; nous allons prochainement avoir plus de nouvelles sur les points suivants:

Valorisation: un RDV est prévu le jeudi 13.11 avec Laurent Sciboz pour discuter des possibilités de valorisation publique du projet;
– Présentation du projet à Erfurt les 26 et 27.11 dans le cadre d’une conférence sur la narration interactive, puis le 13.12 dans le cadre de Version Bêta à Saint Gervais à Genève;
– Présentation publique du projet à Renens en juin 2009
– Chantiers prévus à Renens (la place du marché va “disparaître”)

UF 09.11.08

Share

PV réunion du 25.09.2008 à l’ECAL

Friday, October 3rd, 2008

Un rapide tour de table est effectué afin que chacun se présente.
Sont présent-es:
Ulrich Fischer – Jean-François Blanc – Nicolas Wagnières – Pascal Amphoux – Daniel Sciboz – Vincent Jaquier – Lionel Tardy – Nicolas Goy – Laurent Sciboz – Floriant Poulain – Laura Raileanu – Florence Guilermin.

Rapide présentation de Florence Guillermin (réalisatrice genevoise) et Laurent Sciboz (Head of business information systems institute) de la HES-SO du Valais. Sont rapidement présentés les absents, Thomas Isler, Lionel Baier, Jose Michel Buhler, Gwenola Wagnon, Stéphane Degoutin.
Pascal Amphoux et Laurent Sciboz s’interrogent brièvement sur leur cahier des charges en fonction des heures d’engagement.
Ulrich présente également son siège, C-side production à Genève, en tant que base “hardware“ du projet.
Il est rapidement rappelé que la phase 1 s’est terminée avec la possibilité de tester un ensemble fonctionnel, toutes les composantes du projet ayant été développées. Il s’agit pour la phase 2 de faire en sorte que la mécanique ainsi fonctionnelle puisse produire du sens. Suite aux remarques du réseau de compétences, il faudra également garder plus de traces du projet, de même qu’il faut déjà prévoir de quelle manière la valorisation et les délivrables s’effectueront au terme de la phase 2.
Laura Railenau parle de deux projets de la HES-SO et dit qu’il y a une grande demande dans le domaine de “l’annotation de multimédias“ (data mining), des réseaux et des métadonnées.

Ulrich rappelle qu’il faut définir la notion de délivrable générique (architecture ouverte qui puisse être reprise dans un autre cadre et avec d’autres enjeux) ainsi que le résultat artistique auquel vise concrètement ce projet (et qui sera présenté publiquement à Renens en juin 2009). On peut préciser dans quel sens il faut travailler en partant de la fin, fixer un cadre au “délivrable générique” ainsi que de voir avec la commune de Renens pour ce qui se passe en juin-juillet 2009.

Ulrich rappelle la participation du projet WE à interactive storytelling à Erfurt, et à version Beta à Genève: deux ouvertures internationales du projet.
Des informations plus précises sur le déroulement de beta en décembre suivront mais il est prévu de participer à une table ronde, Daniel Sciboz, Gwenola et Stéphane sont par ailleurs investis dans la manifestation. Daniel précise qu’il s’agit d’un forum questionnant les relations entre art et recherche et que ce sera très hétérogène.
Pascal ajoute qu’il a également parlé du projet lors d’un laboratoire à Grenoble.

La parole est donnée à Nicolas Goy pour qu’il explique son travail avec l’Iphone d’Apple, comme module embarqué. Il explique la gestion de la lecture du parcours qui génère par le moteur d’analyse une playlist sonore affichée sur le module. Il a chargé des sons de la base de données dans le module et effectue une démonstration couche par couche, montage empirique.
Ulrich précise que le GPS de l’Iphone est plus précis que ceux testés par le projet.
Des questions sont soulevées au niveau de la mémoire, du débit et du poids de chargement, si les modules sont préchargés, s’ils peuvent l’être par les utilisateurs, lecture en streaming, compressé ou non,… Une série de questions techniques à résoudre encore. Le problème des batteries existe également, on peut néanmoins arriver à une heure et demie d’autonomie en customisant un peu l’appareil. Grosse consommation des ressources graphiques. Sur 128 mo de mémoire vive:
-40mo pour le système
-40mo pour le processeur
-24mo le graphisme
-24mo ….

Quelque chose à résoudre entre la HEIG et NG concernant les besoins de mémoire. NG rappelle que le problème de la mémoire est lié à la consommation de l’appareil. Vu le succès de l’Iphone, il est probable que les choses évolue dans notre sens.
NG évoque le fait d’utiliser un site wiki pour les échanges entre Lionel Tardy et la HEIG.
JFB met en liaison les problèmes techniques et les questions artistiques, en effet il a été avancé lors de la réunion de travail à C-side avec UF et NW, que la lecture des différents layers-couches-nuages sur le module embarqué n’avait pas tant de sens pour le promeneur “lambda”.
Cela amène à redéfinir la notion d’informations qui sont distribuées au promeneur, le dosage entre le territoire sensible, réel, vécu par le promeneur, et ce qui est déjà de l’ordre d’une représentation de ce territoire: nuages, sons, médias, tags,….donnés par le module embarqué. La phase 1 a accumué des possibles, il s’agit maintenant de faire des tests et des choix.
NG demande quelles types d’interactions seront offertes au promeneur: start/stop,…

Retour sur le fait que pour UF, il faut faire des tests, pour Laura, il faut les règles d’organisation des médias.
Florian dit que pour l’analyse en temps réel (stimuli sonore) la mémoire disponible est suffisante. En ce qui concerne le montage final, il se passe hors du module. La tâche de l’Iphone est juste de fournir des sons et d’être en communication avec le serveur.
Il va s’agir de travailler sur un espace limité autour de la place du marché, espace qu’il faut charger de médias. un travail de tournage supplémentaire, ainsi que d’édition et de duplication des médias existants va démarrer. On a décidé en effet qu’un média pouvait exister en plusieurs endroits.
Il est ensuite question de la gestion du stockage des médias, qui héberge, qu’est ce qui est compatible avec le langage utilisé par les programmateurs.
Toute la gestion du flux sonore reste ouverte, discussion entre DS, NG, UF, LT, autour des questions de téléchargement ou non des sons, diffusions dans l’espace parcouru,…Il serait préférable de faire un sérieux travail préalable d’édition des sons. Cela questionne le sens de ce stimuli sonore envoyé au promeneur. S’agit-il d’un flux data ou une communication GSM avec un serveur. Réseau urbain WIFI éventuellement utilisable, sauf que si le projet voyage, la mise en place d’une infrastructure extérieure n’a pas de sens. Ces questions restent ouverts, mais DS rappelle que plus on reste simple mieux ce sera.

Laura explique qu’elle reprend le travail de Nastaran Fatemi qui est sur le point d’accoucher, et va présenter prochainement une planification détaillée du travail en fonction des heures. Florian Poulain reste l’interlocuteur au sein de la HEIG. Il est convenu que la HEIG livre le moteur d’analyse à NG pour implémentation dans l’Iphone en mars 2009. Ils doivent préciser ensemble ce qui est de la sélection direct ou non.
Daniel pense qu’il faudrait rendre plus dynamique le rapport entre le groupe de réflexion et la part techno de la HEIG.
Lionel Tardy va recevoir prochainement les modifications à apporter au CMS suite aux diverses réunions méthodologies.
NG demande à recevoir des précisions sur les informations de l’audio, gain,transitions, fade,…encore une fois les règles qui régissent le montage.
Enfin, NW constate qu’un certain nombre d’heures sont encore ouvertes pour de l’enregistrement sur le terrain, une personne approchant le territoire par le son est proposée par NW. Il est question d’en rediscuter prochainement.

N. Wagnières

Share

PV réunion du 19.09.2008 à la HEIG

Monday, September 22nd, 2008

Une réunion de reprise a eu lieu à la HEIG d’Yverdon le 19 septembre avec Nastaran Fatemi et Floriant Poulain, Daniel Sciboz et Lionel Tardy, Ulrich Fisher et Nicolas Wagnières.
Ulrich a d’abord résumé la fin de la phase 1: “Toutes les composantes du projet ont été abordées, sans que le moteur final de montage puisse être réellement testé.“
Il a également évoqué les rendus à prévoir pour la fin de la phase 2,  compte rendu scientifique et compte rendu “artisitico-évènementiel“ à Renens, des contacts avec la commune vont être prochainement pris dans ce sens par NW.

La première question de NF est ce que signifie UF quand il dit qu’à la fin de la 1ère phase, “ça marche“ ?
Cela amène la discussion sur le workflow de la deuxième phase, la HEIG a besoin de recevoir de manière précise les règles qui régissent le montage. Il s’agit de trouver l’équilibre entre le besoin de pouvoir tester à l’aide d’une interface les montages possibles pour pouvoir affiner les règles par la suite.
UF annonce que Nicolas Goy a effectué des tests avec l’Iphone de Apple et les trouve plus que satisfaisant, le GPS par exemple semble fonctionner bien plus précis que ceux testés lors de la phase 1. Nous rappelons que Nicolas Goy travaille comme développeur chez Apple depuis plus de dix ans. Les avantages de l’Iphone sont multiples, léger, fiable, accéléromètre intégré, il est envisageable de travailler en phase 3 sur un système de téléchargement de l’interface pour Iphone. Un partenariat avec Apple pourrait être envisagé. L’Iphone ne travaillerait pas avec la carte SIM. Le seul problème semble être celui de la batterie, ainsi que de la mémoire vive disponible pour la gestion du son en direct.
UF demande à la HEIG de budgétiser leur travail en fonction des heures de chacun-e.
Nastaran Fatemi rappelle qu’elle est sur le point d’accoucher et que Laura Elena Raileanu et Floriant Poulain continuent le projet.
Nous redéfinissons les délais du planning des tâches, et repoussons à mi-octobre la livraison des règles à la HEI, en effet il a été constitué une cellule de réflexion sur les méthodologies de tournage et de montage, cellule de travail qui commence à se réunir le vendredi 3 octobre. Sont concernés, Jean-François Blanc, Pascal Amphoux, Ulrich Fischer, Daniel Sciboz, Nicolas Wagnières.
La HEIG va reprendre le travail de Lionel Tardy sur la base de données, Lionel Tardy s’occupera du réajustement du CMS en fonction de la Base de données. Il s’agit entre autre de systématiser les champs et les appellations. Il est demandé à UF un mail concernant les champs nécessités par l’importation d’images fixes.
Lionel Tardy évoque le fait de pouvoir personnaliser toutes les informations du CMS de même que d’introduire des accès utilisateurs, visiteurs.
La discussion repart sur le besoin pour la HEIG de recevoir de la part de UF les règles de combinaison des médias.
Il reste également à définir lesquels des règles s’appliqueront directement aux sons, c’est à dire à un montage réagissant aux données transmises en direct.
Les règles et les métadonnées vont dorénavant être en anglais, dans l’idée d’un possible développement du projet à l’étranger.
Le périmètre du territoire dans lequel se dérouleront les premiers essais est revu à la baisse, il est nécessaire de pouvoir le couvrir en 10 à 15 minutes à pied. Il est prévu que ce périmètre soir autour de la place du Marché, texture urbaine variée où nous avons déjà effectuer passablement d’enregistrements.
La HEIG a déposé une demande de financement auprès du réseau de compétence HES-SO  pour un projet de recherche appelé Mobiwalk, ceci afin que le partenariat avec le projet WE puisse s’élargir. Des nouvelles prochainement.

N. Wagnières

Share

WE, c’est la rentrée

Tuesday, September 2nd, 2008

Ce premier post de la rentrée pour annoncer que la phase deux du projet peut démarrer avec l’automne (sauf imprévu majeur). La fin officielle de la phase deux est prévue pour juin-juillet 2009, date à laquelle nous allons présenter publiquement le projet dans un cadre qui reste encore à définir.

Pour commencer, quelques réunions:
– d’ici le 25 septembre, réunions techniques et d’organisation
– le 25 septembre à Renens (ECAL), réunion avec tous les collaborateurs (un ordre du jour suivra)

D’ici la fin du mois, nous aurons donc les cahiers de charges, contrats, plannings et une belle liste de choses à expérimenter…

Ensuite, nous allons organiser des rendez-vous mensuels pour garantir une “discussion de fond” autour des enjeux artistiques et conceptuels: l’idée est de se réunir pendant une demi journée afin d’alimenter la part théorique du projet ainsi que de consolider les choix techniques et artistiques.

Et pour terminer, quelques informations en vrac:
– le projet est invité en novembre dans le cadre d’une conférence à Erfurt – il s’agit de faire une sorte de “demo” du projet dans le cadre de cette conférence;
– en décembre, invitation dans le cadre de Version Beta au CIC à Genève;
– nous sommes en train d’organiser la collaboration avec le cursus de formation des masters cinéma (la rentrée a lieu le 15 septembre) – plus d’informations sur notre collaboration avec la formation sous peu.

Voilà pour l’heure – en attendant joyeuse reprise !
Ulrich

Share