Nella visione periferica dell’occhio, i neuroni della corteccia cerebrale elaborano la visione seguendo delle regole di elaborazione dell’informazione come un computer
Ricercatori dell’Istituto di neuroscienze del Consiglio nazionale delle ricerche di Pisa (Cnr-In), in collaborazione con colleghi dell’Università di Firenze, hanno scoperto un nuovo meccanismo che agisce sulle immagini periferiche. Nel linguaggio comune, l’espressione “guardare con la coda dell’occhio” si riferisce a qualcosa che viene osservato senza guardarlo direttamente: vuol dire guardare di sfuggita, guardare senza farsi vedere. I ricercatori chiamano questo modo di guardare “visione periferica”, ed è noto che essa non garantisce la stessa affidabilità e risoluzione della visione centrale. Per rendersene conto, basta fermare lo sguardo su una parola di un testo scritto: quella su cui si sono posati gli occhi si legge bene, tuttavia le parole adiacenti sono poco distinguibili. La spiegazione di questo fenomeno risiede nel fatto che i recettori retinici non sono distribuiti omogeneamente: essi sono più abbondanti nella zona della retina che intercetta le immagini centrali, mentre sono più radi per le immagini periferiche.
Come mai, allora, nonostante la scarsa risoluzione, riusciamo a vedere ed usare bene le immagini catturate dalla coda dell’occhio? “I processi che danno vita alla visione, quelli che ci permettono di leggere, riconoscere i volti, gli oggetti, i colori, spesso sono visti come meccanismi passivi, che fanno sempre lo stesso lavoro, come delle telecamere impostate su parametri fissi; tuttavia in presenza di informazioni poco affidabili questo non è efficiente” afferma Guido Marco Cicchini (Cnr-In), primo autore dello studio.
I ricercatori, sfruttando un fenomeno visivo conosciuto come “crowding” (ossia affollamento), hanno scoperto che nella visione periferica il cervello opera una continua ricostruzione dell’immagine visiva riempiendola con i segnali più affidabili e attenuando quelli più incerti. La scoperta si è realizzata sottoponendo dei soggetti alla visione di un disegno ovale in periferia chiedendo se quell’ovale fosse orizzontale. Lo stesso disegno veniva affiancato da altri disegni.
“Si è potuto osservare – spiegano i ricercatori di Cnr-In – che se l’ovale era disegnato in maniera molto sottile, quasi una retta, la risposta dipendeva unicamente dall’oggetto. Se gli ovali invece avevano una forma tendente alla circonferenza, e quindi il loro orientamento non era ben definito, la risposta incorporava le immagini a latere dell’ovale d’interesse”.
“In un sistema di videosorveglianza con più telecamere che inquadrano l’ingresso di un palazzo ho la scelta di quale sorgente di informazione usare. E’ evidente che se una telecamera temporaneamente invia delle immagini di scarsa qualità, debba ricorrere alle altre”, aggiunge David Burr dell’Università di Firenze, senior author dello studio. “I neuroni della corteccia visiva valutano costantemente la qualità dell’informazione e compensano la scarsa qualità di alcune parti del campo visivo proiettandovi quelle adiacenti e più affidabili”.
“La cosa sorprendente – conclude Cicchini – è che l’occhio lo fa seguendo delle regole di elaborazione dell’informazione proprie del funzionamento di un computer che sono il massimo teorico che si possa fare”.
Lo studio pubblicato su Nature Communications parla quindi di una strategia dinamica nella gestione delle immagini visive che ha evidenti benefici nel cervello, e potrebbe avere ricadute anche nel mondo della visione robotica ed artificiale.
Chi: Cnr-In, Unifi.
Che cosa: Studio pubblicato su Nature Communications- Cicchini, G.M., D’Errico, G. & Burr, D.C. “Crowding results from optimal integration of visual targets with contextual information”. Nat Commun 13, 5741 (2022). https://doi.org/10.1038/s41467-022-33508-1