Hauptinhalt
Forschung
Forschungsagenda
Menschen führen pro Sekunde mehrere Augenbewegungen aus, um ihre Fovea - den Punkt des schärfsten Sehens auf der Netzhaut - zu unterschiedlichen Objekten in ihrer visuellen Umwelt zu bewegen. In unserem Labor untersuchen wir, wie Augenbewegungen sowie die visuelle Wahrnehmung des Menschen miteinander interagieren. Folgende Aspekte dieser Interaktion sind für uns dabei von besonderem Interesse.
- Schütz, A. C., Braun, D. I., & Gegenfurtner, K. R. (2011). Eye movements and perception: a selective review. Journal of Vision, 11(5):9, 1-30.
Integration von bottom-up sowie top-down Verarbeitungsprozessen
Das menschliche Gehirn muss vor jeder Augenbewegung eine Reihe von konkurrierenden bottom-up und top-down Signale gegeneinander abwägen, um zu entscheiden, wohin eine Augenbewegung ausgeführt werden soll. Neben der visuellen Salienz eines Objekts (bottom-up), zählen ferner auch Faktoren wie Objekterkennung, individuelle Handlungspläne oder der Wert eines Objekts (allesamt top-down) zu den genannten Signalen. Wir untersuchen, wie diese unterschiedlichen Signalarten integriert werden, um Augenbewegungen zu kontrollieren.
- Schütz, A. C., Lossin, F., & Gegenfurtner, K. R. (2015). Dynamic integration of information about salience and value for smooth pursuit eye movements. Vision Research, 113, 169-178.
- Schütz, A. C., Trommershäuser, & Gegenfurtner, K. R. (2012). Dynamic integration of information about salience and value for saccadic eye movements. Proceedings of the National Academy of Sciences of the United States of America, 109(19), 7547-7552.
Wahrnehmungskonsequenzen von Augenbewegungen
Das Ausführen einer Augenbewegung führt zu dramatischen Veränderungen des retinalen Abbilds, welches Menschen von ihrer Umwelt haben. Trotz dieser Veränderungen, wird die visuelle Umwelt jedoch als homogen und stabil wahrgenommen. Wir erforschen, wie visuelle Wahrnehmung durch das Ausführen von Augenbewegungen moduliert wird und wie visuelle Informationen, über Augenbewegungen hinweg, aufrechterhalten und integriert werden.
- Wolf, C., & Schütz, A. C. (2015). Trans-saccadic integration of peripheral and foveal feature information is close to optimal. Journal of Vision, 16(16):1, 1-18.
- Schütz, A. C., Braun, D. I., Kerzel, D., & Gegenfurtner, K. R. (2008). Improved visual sensitivity during smooth pursuit eye movements. Nature Neuroscience, 11(10), 1211-1216.
Lernen und Verhaltensoptimierung
Augenbewegungen zählen nicht nur zu den häufigsten Bewegungen, die Menschen ausführen, sondern auch zu den genauesten und präzisesten. Wir untersuchen, wie diese hohe Bewegungsgenauigkeit, mit Hilfe von Lernmechanismen, aufrechterhalten wird und wie Augenbewegungen, hinsichtlich der Anforderungen unterschiedlicher Wahrnehmungsaufgaben, optimiert werden können.
- Paeye, C., Schütz, A. C., & Gegenfurtner, K. R. (2016). Visual reinforcement shapes eye movements in visual search. Journal of Vision, 16(10):15, 1-15.
- Schütz, A. C., Kerzel, D., & Souto, D. (2014). Saccadic adaptation induced by a perceptual task. Journal of Vision, 14(5):4, 1-19.
Individuelle Unterschiede in Wahrnehmungspräferenzen
Das visuelle System des Menschen sieht sich häufig mit uneindeutigem visuellem Input konfrontiert und muss eine Entscheidung darüber fällen, wie ein solches uneindeutiges visuelles Signal zu interpretieren ist. Frühere Forschungsarbeiten konnten zeigen, dass Menschen häufig dazu neigen, Wahrnehmungspräferenzen für bestimmte Interpretationen zu zeigen. Wir untersuchen, wie diese Präferenzen entstehen und wie sie sich zwischen Individuen unterscheiden.
- Schütz, A. C., & Mamassian, P. (2016). Early, local motion signals generate directional preferences in depth ordering of transparent motion. Journal of Vision, 16(10):24, 1-20.
- Schütz, A. C. (2014). Inter-individual differences in preferred directions of perceptual and motor decisions. Journal of Vision, 14(12):16, 1-17.
Förderung
Workshops
Labore
In unserem Labor erforschen wir die Interaktion zwischen Augenbewegungen sowie der visuellen Wahrnehmung. Hierzu messen wir die Augenbewegungen unserer Probanden, während letztere Objekte auf einem Computermonitor betrachten sowie parallel okulomotorische und/oder visuelle Aufgaben bearbeiten. Zur Messung der Augenbewegungen nutzen wir Eye-Tracker, die ein Infrarotlicht auf die Netzhaut unserer Probanden projizieren: die Reflexion des Infrarotlichts dient uns als Messsignal. Da die menschliche Pupille kaum Licht reflektiert, nimmt sie der Eye-Tracker als dunklen Kreis wahr und ist so in der Lage, ihre Position auf der Netzhaut zu bestimmen. Um herauszufinden, welchen Punkt ein Proband oder eine Probandin auf dem Computermonitor betrachtet, führen wir vor jeder Messung eine Kalibrierung durch. Während letzterer müssen die Versuchspersonen eine Reihe von Punkten fixieren, welche sequenziell vor ihnen auf dem Monitor eingeblendet werden. Mit Hilfe der Kalibrierung lässt sich später bestimmen, welchen Punkt auf dem Monitor eine Versuchsperson zu einem bestimmten Zeitpunkt betrachtet hat.
Ausstattung des "kleinen Labors"
- Deskop-mounted EyeLink 1000+ (SR Research)
- ViewPixx Monitor (VPixx)
- Stereoskop
Ausstattung des "großen Labors"
- Tower-mounted EyeLink 1000+ (SR Research)
- ProPixx Projektor (VPixx)
- Rückprojektionsfläche (Stewart)