Avancées méthodologiques pour mobiliser les technologies d'eye-tracking dans le cadre de recherches sur les perceptions environnementales

Résumé : Cette communication s’intéresse à l’apport des technologies d’eye-tracking pour étudier les perceptions environnementales. Il s’agit d’étudier l’influence de la composition de l’environnement urbain, en particulier les éléments naturels, sur le comportement oculaire des citadins (fixations notamment). Les travaux présentés sont pluridisciplinaires et mobilisent des géographes et des informaticiens spécialistes de l’image. Ils répondent à une double approche expérimentale : (exp.1) une approche in situ mobilisant un oculomètre mobile (ETG, SMI) lors d’une déambulation urbaine proposée à des habitants ; (exp.2) une approche de réalité virtuelle qui simule, dans un casque VR couplé à un oculomètre, les environnements urbains à l’aide de vidéos 360° (Oculus et SMI eye-tracking package). Les résultats contribuent aux enjeux liés à l’acquisition et à l’analyse des données. Concernant l’acquisition, l’expérience 1 a produit un retour d’expérience sur l’utilisation d’un oculomètre mobile en extérieur et a permis d’en identifier les bénéfices et les limites pour l’étude des perceptions environnementales. L’expérience 2 est en cours. Une étape a été franchie par l’interfaçage des vidéos 360° (solutions Kolor), du casque VR et de l’oculomètre. Le programme permet à ce jour d’enregistrer, lors de la simulation, les coordonnées du point de regard sur la vidéo. Il propose également une visualisation des données à l’aide d’une vidéo « à plat » ou 360° (visualisable via le casque VR). Cela permet des conditions innovantes de collecte de données eye-tracking pour l’étude des perceptions environnementales. Concernant l’analyse, elle vise à déterminer l’influence de la composition environnementale sur le comportement oculaire. L’enjeu consiste à inférer la nature de l’objet fixé (arbre, rivière…). L’expérience 1 a fait l’objet de traitements manuels et automatisés. Le premier a consisté à agréger les données des participants sur une seule image de référence (semantic gaze mapping, SMI) et à y définir des AOI (areas of interest) selon la nature des objets composant l’environnement. Cette méthode a produit, malgré certaines limites, des résultats éclairant l’influence de l’environnement urbain sur les comportements oculaires. Toutefois, la longueur des traitements encourage à automatiser certaines tâches. Les approches de vision par ordinateur et d’apprentissage automatique ont permis de progresser dans cette voie. A partir d'images annotées manuellement, un modèle de prédiction a été appris, permettant de segmenter une image en régions pertinentes du point de vue sémantique, et le plus souvent homogènes en termes de caractéristiques images (couleurs, textures…). Les méthodes classiques de segmentation ont été améliorées en modélisant les interactions entre les objets composant les scènes.
Complete list of metadatas

https://halshs.archives-ouvertes.fr/halshs-01316282
Contributor : Marylise Cottet <>
Submitted on : Monday, May 16, 2016 - 3:08:15 PM
Last modification on : Wednesday, April 10, 2019 - 1:35:29 AM

Identifiers

  • HAL Id : halshs-01316282, version 1

Citation

Marylise Cottet, Julien Mille, Christian Wolf, Pierre Lemaire. Avancées méthodologiques pour mobiliser les technologies d'eye-tracking dans le cadre de recherches sur les perceptions environnementales. Eye-tracking day 2016, Jun 2016, Tours, France. ⟨halshs-01316282⟩

Share

Metrics

Record views

482