Image
Rochelle Ackerley : contribution article d'opinion dans Nature
"The quest to build bionic limbs that feel like the real thing"
Image
Soutenance Célia Laurent- 22 novembre à 14h Amphi Charve
"Bases neurales des représentations spatiales d’environnements complexes : études électrophysiologiques du cortex rétrosplénial, de l’hippocampe et du cortex entorhinal médian"
Image
Neurostories 2025, 6e édition inscrivez-vous !
Rendez-vous Jeudi 30 Janvier 19h 63 La Canebière - Marseille 3 Membres du CRPN participent : Rochelle ACKERLEY, Sophia FARESSE & Stéphanie KHALFA "Entre raison & sentiment mon cerveau balance"
Image
Xavier ALARIO publie chez Odile Jacob
L'Esprit des Mots. Pour une nouvelle neurosciences du langage.
Image
2e Article dans la Marseillaise, pour le Labo des Minots !
après avoir ouvert ses portes dans le cadre des Visites Insolites organisées par le CNRS : Un vrai succès et la Presse Quotidienne Régionale (PQR) s'en fait l'écho.
Image
Zoltan Dienes
Séminaire Neuroschool - Zoltan DIENES
Registered Reports: Shaking up the role of publishers
Image
Nouvelle publi Nature Communications - Adrien MEGUERDITCHIAN et al.
Planum temporale asymmetry in newborn monkeys predicts the future development of gestural communication’s handedness
Image
Photo Isabelle DAUTRICHE
Nouvelle ERC Starting Grant au CRPN
F.é.l.i.c.i.t.a.t.i.o.n.s. à Isabelle DAUTRICHE
Image
Photo Proprioception Ado
Recherche de participants pour une étude de la proprioception
Etude sur la perception du mouvement chez les adolescents
Image
Main Marius Labo des Minots
Le Labo des Minots recrute des participants
Venez nous aider à faire avancer la science !
Image
Portrait de Eric CASTET

Les séminaires du Lundi accueillent Eric CASTET, Equipe Sense, Movement & Perception (SMP

le :   7 Octobre 

de : 11h à 12h 

En : Salle des Voûtes, Bâtiment 9, Campus Marseille St Charles

 

Title : PTVR – A software in Python to make virtual reality experiments easier to build and more reproducible

Researchers increasingly use virtual reality (VR) to perform behavioral experiments, especially in vision science. These experiments are usually programmed directly in so-called game engines that are extremely powerful. However, this programming process is tricky and time-consuming as it requires solid knowledge of game engines. Consequently, the anticipated prohibitive effort discourages many researchers who want to engage in VR.

In this seminar I will present the Perception Toolbox for Virtual Reality - PTVR (https://ptvr.inria.fr) with which visual perception studies in VR can be created using high-level Python script programming. A crucial consequence of using a script is that an experiment can be described by a single, easy-to-read piece of code, thus improving VR studies' transparency, reproducibility, and reusability (cf. « FAIR » principles). This new toolbox should also dramatically reduce the difficulty of programming experiments in VR and elicit a whole new set of visual perception studies with high ecological validity.

As an illustration of the PTVR power and scientific relevance, I will present some PTVR experiments currently run in our group to assess the performance of low vision persons in sophisticated pointing tasks. These tasks rely on the rich interactivity available in PTVR and also aim at improving the visual performance of these patients.


 

Actualités