For best experience please turn on javascript and use a modern browser!
You are using a browser that is no longer supported by Microsoft. Please upgrade your browser. The site may not present itself correctly if you continue browsing.

Elk moment van ons wakkere leven bereiken beelden onze ogen. Deze doorlopen een reeks van verwerkingsstappen in de hersenen om ons te informeren over wat er in de wereld gebeurt. Maar hoe werkt dat, en hoe verhoudt zich dat tot andere zintuigelijke input? Een team van neurobiologen van het Swammerdam Institute for Life Sciences van de Universiteit van Amsterdam heeft ontdekt dat de tijd die de hersenen nodig hebben om een visuele beslissing te nemen niet alleen afhangt van de eigenschappen van de beelden die worden verwerkt, maar ook van de vraag of er ook relevante geluiden of aanrakingen zijn. Hun werk is gepubliceerd in Nature Communications.

Image: Pxhere

Nadat beelden van de buitenwereld onze ogen bereiken, gaat een cascade van signalen door het visuele systeem. Neuronen in verschillende hersengebieden combineren die signalen om een ​​representatie te vormen van de beelden, die vervolgens wordt gebruikt om de wereld te begrijpen en erop te reageren. Een specifiek gebied in de hersenen genaamd de primaire visuele cortex is het eerste stadium waar visuele informatie wordt verwerkt. Voorheen dachten wetenschappers dat de complexiteit van de te verwerken visuele scène bepaalde hoe de beelden worden verwerkt. We weten echter ook dat zien slechts één van de zintuigen is en niet op zichzelf staat: zo zijn er geluid, tast, geur en andere zintuigen. De onderzoekers wilden daarom weten of de verwerkingstijd die nodig is om een zintuiglijke beslissing te nemen, wordt beïnvloed als ook informatiestromen uit andere zintuigen moeten worden gevolgd.

Wat we zien is ook wat we horen en voelen

‘We vergeleken twee opties.’ Zegt Matthijs oude Lohuis, eerste auteur van het artikel samen met Jean Pie. ‘Eén cohort muizen werd getraind om te rapporteren wat ze zagen en te negeren wat ze hoorden of voelden op hun snorharen. Het andere cohort werd getraind om te rapporteren wat ze zagen, maar ook wat ze hoorden of voelden.’ De onderzoekers ontdekten dat de activiteit van neuronen in de visuele cortex varieerde tussen deze twee groepen. Hersensignalen die erop wezen dat visuele stimuli waren gedetecteerd, duurden langer om te verschijnen als muizen ook aandacht besteedden aan geluid of tast. ‘We veronderstelden dat een langere verwerkingsduur in de primaire visuele cortex ook zou wijzen op een langere betrokkenheid van deze regio bij de transformatie van zintuiglijke stimuli naar een motorische actie, ofwel een lichamelijke beweging  volgend op wat waargenomen wordt met de zintuigen’, zegt Umberto Olcese, senior onderzoeker in het team. Om deze hypothese te testen, gebruikten de onderzoekers een moleculair hulpmiddel genaamd optogenetica, waarmee ze de visuele cortex aan of uit konden zetten door deze te verlichten met een zeer precieze laserstraal.
Zoals verwacht was activiteit in de visuele cortex noodzakelijk voor het detecteren van visuele stimuli. Verrassend genoeg was de tijdsperiode waarin visuele cortex nodig was voor detectie echter afhankelijk van de vraag of muizen ook aandacht besteedden aan andere sensorische modaliteiten: een taak waarbij een andere sensorische modaliteit moest worden gemonitord, verlengde de tijd waarin activiteit in de visuele cortex nodig was om een visuele stimulus te detecteren, onafhankelijk van de kenmerken van de te verwerken beelden.

Naar een geïntegreerde kijk op informatieverwerking in de hersenen

Dit onderzoek daagt ons huidige begrip van hoe visie werkt uit. Terwijl we gewend zijn te denken dat visuele verwerking geïsoleerd plaatsvindt, wordt de manier waarop de hersenen beelden, die onze ogen bereiken, analyseren al in de vroege bewerkingsstadia beïnvloed door andere factoren, waaronder input van andere zintuigen en hoe we die sensorische informatie gebruiken. Dit noemen we een multimodale kijk op sensorische verwerking. Deze multimodale kijk sluit aan bij een theorie die een van de teamleden, professor Cyriel Pennartz, reeds eerder heeft ontwikkeld over hersenmechanismen van perceptie en bewustzijn. De theorie stelt dat meerdere zintuigen bijdragen aan bewuste ervaringen, zelfs als we die als ‘visueel’ betitelen.
Dit werk is een belangrijke stap in de richting van het ontwikkelen van een geïntegreerde kijk van hoe verschillende hersenregio's gezamenlijk de diverse en multimodale informatie verwerken die onze zintuigen voortdurend onder ogen zien.