Kangnikoé Adjanor (Telecom Paristech Alcatel-Lucent Bell Labs), Eric Lecolinet, Yves Guiard (Telecom Paristech), Myriam Ribière (Alcatel-Lucent Bell Labs)
De nombreux systèmes de visualisation ont été conçus et développés pour traiter la masse sans cesse grandissante de données temporelles. Les interfaces de ces systèmes se basent sur différentes représentations qui prennent en compte les multiples aspects du facteur temps (linéaire ou cyclique, instant ou intervalle, multiples unités, etc.) ainsi que les caractéristiques propres aux données. Pour pouvoir analyser et comparer les différentes techniques de représentation de ces données, il est nécessaire de disposer d'un espace de classification. Dans cet article, nous décrivons et nous comparons les représentations visuelles de données temporelles en mettant l'accent sur trois facteurs de classification: le temps, la donnée et la tâche de l'utilisateur.
Ludovic Le Bigot, Loïc Caroux, Christine Ros, Agnès Lacroix (Université de Poitiers & CNRS - CeRCA, UMR 6234), Valérie Botherel (Orange Labs)
Cette recherche s’intéresse à l’effet du nombre d’options dans les messages à choix multiples des services vocaux interactifs (à voix humaine enregistrée) ainsi qu’à l’effet de marqueurs verbaux fournis à la fin des messages sur la mémorisation des options. Des participants écoutaient et évaluaient la qualité de dialogues entre une utilisatrice et un système artificiel doté d’une voix naturelle masculine. Ils devaient aussi rappeler les messages du système auxquels un suffixe avait été ajouté à la fin des messages. Le suffixe était soit expérimental (pseudo-mot), naturel (« C’est à vous »), ou contrôle (bip). Le taux de rappel des options des messages à choix multiples a été calculé. Les résultats ont montré que l’augmentation du nombre d’options dans un message à choix multiples limite la mémorisation des informations. Le taux de rappel de la dernière option d’un message comportant un suffixe était aussi réduit par rapport à une situation sans suffixe. Ces résultats confirment et précisent certaines recommandations sur la conception des messages des services interactifs vocaux.
Sabine Langlois, Severine Loiseau (Renault), Julien Tardieu, Andrea Cera, Nicolas Misdariis (IRCAM)
Equiper un système multimédia embarqué sur véhicule de guidage sonore doit permettre au conducteur de manipuler son système « sans les yeux », en restant concentré sur la route. Le guidage est en effet censé faciliter la découverte du système et la navigation dans l’architecture du menu. Une maquette a été réalisée puis évaluée auprès d’utilisateurs afin d’éprouver l’efficacité et l’acceptabilité du guidage sonore mis en place (sons hiérarchiques, synthèse vocale à vitesse normale ou accélérée sous forme de spearcons, extraits musicaux, sons de confirmation d’action). Les résultats obtenus confirment l’intérêt du guidage sonore. Bien que la sonification du système ne permette pas de naviguer et d’accéder plus rapidement aux données, les participants souhaitent la conserver car ils estiment leur conduite plus sûre. Le guidage sonore leur donne d’ailleurs l’impression de devoir moins souvent détourner le regard de la route. Les sonifications les plus utiles sont : la synthèse vocale et les sons hiérarchiques dans les premiers niveaux du menu, ainsi que les lettres dans les listes longues des sous menus. Les sons hybrides entre earcons et icones auditives sont préférés aux sons orchestrés (musèmes) car le lien à la fonction représentée est plus intuitif. Les spearcons sont rejetés : incompréhensibles, ils ne permettent pas à l’utilisateur de se repérer dans les listes de données. A toutes les étapes de la recherche, les sons de défilement et de butée/liste vide sont appréciés.
Alexis Clay (ESTIA), Nadine Couture (ESTIA, LaBRI, UMR 5800, Université de Bordeaux), Laurence Nigay (LIG, UMR 5217, Université Joseph Fourier)
Le domaine de la reconnaissance d'émotions atteint un stade de maturité où commence à émerger un besoin en termes d’ingénierie et en particulier de modèles de conception. Partant de cette constatation, nous proposons d’exploiter les résultats obtenus en ingénierie de l’interaction multimodale pour les appliquer et les adapter à la reconnaissance d’émotions, une émotion étant intrinsèquement multimodale. En particulier, nous adaptons la définition d’une modalité d’interaction au cas des modalités mises en jeu lors de la reconnaissance passive d’émotions. Une modalité définie, nous étudions ensuite les relations entre modalités en nous appuyant sur les propriétés CARE de l’interaction multimodale. Nous soulignons le pouvoir génératif de CARE ainsi que les apports de notre modèle en ingénierie de la reconnaissance d’émotions.