Szczegóły publikacji
Opis bibliograficzny
Pupil-based prediction of affect in VR: a machine learning approach / Agata Szymańska, Paweł JEMIOŁO, Beata Pacula-Leśniak, Michał Kuniecki // W: VRW 2025 [Dokument elektroniczny] : 2025 IEEE conference on Virtual Reality and 3D user interfaces workshops : 8–12 March 2025, Saint-Malo, France : proceedings. — Wersja do Windows. — Adobe Reader. — Piscataway : The Institute of Electrical and Electronics Engineers, cop. 2025. — Dod. ISBN: 979-8-3315-2563-7. — e-ISBN: 979-8-3315-1484-6. — S. 1376–1377. — Wymagania systemowe: Adobe Reader. — Bibliogr. s. 1377, Abstr. — Publikacja dostępna online od: 2025-04-24
Autorzy (4)
- Szymańska Agata
- AGHJemioło Paweł
- Pacula-Leśniak Beata
- Kuniecki Michał
Słowa kluczowe
Dane bibliometryczne
| ID BaDAP | 159689 |
|---|---|
| Data dodania do BaDAP | 2025-05-20 |
| Tekst źródłowy | URL |
| DOI | 10.1109/VRW66409.2025.00334 |
| Rok publikacji | 2025 |
| Typ publikacji | materiały konferencyjne (aut.) |
| Otwarty dostęp | |
| Wydawca | Institute of Electrical and Electronics Engineers (IEEE) |
| Konferencja | IEEE Conference on Virtual Reality and 3D User Interfaces 2025 |
Abstract
Adapting VR scenarios in real time based on users’ emotional responses is a promising advancement for developers. However, most VR environments are either "blind" to emotions or depend on intrusive, contact-based methods. This study introduces a novel, noninvasive approach for predicting arousal and valence using pupil reactivity and gaze features. Data from 105 participants (ages 18–30) viewing 120 emotional images via a VR headset with eye tracking informed machine learning models. These models, leveraging features like mean and standard deviation of pupil data, achieved F1 scores of 0.64 (valence) and 0.73 (arousal), highlighting potential real-world applications in VR development.