IL BRAIN IMAGING

 

 

IV.1 - I Metodi
IV.2 - Problemi epistemologici condivisi
IV.3 - Nuovi problemi epistemologici

IV.4 - Concezioni di sfondo alle nuove metodologie

  

IV.1   -  I METODI

 

Se fosse possibile vedere attraverso la scatola cranica e se la zona maggiormente eccitata fosse luminosa, si potrebbe seguire, in un uomo intento a pensare, lo spostamento incessante di questo punto luminoso, in un continuo cambiamento di forma e dimensione, e circondato da una zona d’ombra più o meno fitta che occuperebbe tutto il resto degli emisferi” [1].

 

          Con queste parole, Ivan Pavlov formulava nel 1927 un sogno che si sarebbe realizzato circa mezzo secolo più tardi. Fino ad allora, un’indagine circa l’organizzazione funzionale del cervello nell’uomo era possibile soltanto interpretando gli effetti - sul comportamento sensorimotorio e cognitivo - delle lesioni cerebrali. Alla metà degli anni ’70 erano già disponibili diverse tecniche non invasive per rilevare in tempo reale le variazioni dell’attività neurale di un soggetto, attraverso differenti regioni della corteccia, durante lo svolgimento di un particolare tipo di attività[2].

Di simili strategie d’indagine forniremo in questo capitolo una sommaria rassegna metodologica, soffermandoci in  modo particolare sulle due metodologie di brain imaging per antonomasia, la PET e l’fMRI, e sul loro ruolo chiave nel riavvicinamento fra le scienze del comportamento e le scienze del cervello.

 

1.     Elettroencefalografia (EEG).

L’elettroencefalografia è la tecnica più antica messa a punto per la registrazione non invasiva del segnale elettrico cerebrale. Le sue origini risalgono agli studi di Hans Berger che negli anni ’20 realizzò il primo elettroencefalogramma umano. L’idea, legata alla scoperta che gli impulsi nervosi trasmessi dai neuroni erano di natura elettrochimica, consisteva nel misurare i potenziali elettrici alla superficie del cranio e nel seguire la loro variazione nel corso del tempo: nella pratica, ciò avveniva, come avviene tuttora, attraverso l’applicazione di elettrodi in vari punti del cuoio capelluto. Questa attività spontanea del cervello, registrata in modo continuo, si presenta sotto la forma di onde di diversa frequenza; all’attività spontanea si sovrappongono segnali specifici legati al compito particolare (sensoriale, motorio o cognitivo) in cui il soggetto è coinvolto durante la registrazione. Dal confronto fra l’attività spontanea e la sua variazione durante l’attività indotta è possibile individuare in tempo reale le aree di maggiore attività elettrica[3]. Se è vero, però, che la risoluzione temporale delle rilevazioni effettuate attraverso EEG è fra le migliori ottenibili con tecniche di registrazione dell’attività cerebrale (dell’ordine del millisecondo, pari a quella della registrazione intracorticale), la risoluzione spaziale del metodo elettroencefalografico rappresenta il suo maggiore limite: gli elettrodi rilevano infatti esclusivamente la corrente che giunge alla superficie del cranio e solo attraverso algoritmi di ricostruzione della provenienza del segnale è possibile individuare i possibili foci da cui essa è prodotta (ricostruzione che, fra l’altro, non è univoca – producendo tali algoritmi come risultato diverse fonti di attività corticale parimenti interpretabili come cause dei potenziali misurati in superficie). Ciò fa sì che la localizzazione dell’attività neurale permessa dall’EEG non dia informazioni che a livello dei lobi cerebrali o delle maggiori convoluzioni, senza sondare l’attività di strutture più ridotte.

 

2.     Magnetoencefalografia (MEG)

La magnetoencefalografia è intesa alla registrazione dei campi magnetici generati dall’attività elettrica del cervello. Attraverso dei sensori avvicinati al cranio del soggetto, è possibile misurare l’intensità dei campi magnetici in prossimità del cuoio capelluto[4]. Il potere risolutivo risulta migliorato rispetto a quello dell’EEG, mentre analoghi restano i problemi legati alla ricostruzione dell’origine del segnale: l’unica differenza significativa, a questo proposito, è legata al fatto che i segnali magnetici risultano meno distorti dai tessuti attraversati rispetto ai segnali elettrici, con la conseguenza che essi rappresenterebbero un indice più affidabile dell’attività cerebrale soggiacente. Un limite che distingue invece la MEG dall’EEG è legato alla natura magnetica dei fenomeni misurati: dal momento che essa rileva il campo magnetico generato da dipoli, soltanto quelli ortogonali ai sensori (e non quelli altrimenti orientati, in particolare quelli localizzati nei solchi) producono effetti misurabili.

 

3.     Tomografia per emissione di positroni (PET)

Sviluppata alla metà degli anni ’70, tale tecnica si pone sotto molti aspetti in discontinuità rispetto alle metodologie precedenti. Ciò dipende, in prima analisi, dal fatto che la PET è uno strumento di registrazione indiretta dell’attività cerebrale: mentre EEG e MEG, così come le tecniche elettrofisiologiche di single cell recording, misurano direttamente il segnale elettrico o un segnale ad esso riconducibile come quello magnetico, la PET rileva variazioni di un indice dell’attività cerebrale, nella fattispecie del debito sanguigno dei tessuti neurali. La validità del metodo riposa, come vedremo in dettaglio in seguito, sull’assunzione che variazioni dell’attività cerebrale siano accompagnate costantemente da variazioni dell’irrorazione sanguigna dei tessuti. Utilizzando un tracciante radioattivo a decadimento rapido[5], iniettato preliminarmente nel soggetto, è possibile individuare le aree in cui il debito sanguigno aumenta conseguentemente ad un aumento di attività neurale: localizzando le zone in cui il tracciante decade, la PET permette di identificare le aree in cui si è sviluppato un debito sanguigno in seguito ad un’attività cognitiva o sensorimotoria[6]. Il sistema di rilevazione della PET è costituito da una serie di sensori disposti a corona attorno alla testa del soggetto: dal momento che il decadimento dell’isotopo radioattivo è accompagnato dall’emissione simultanea di due fotoni in direzioni opposte, il rilevamento del loro incontro simultaneo con i rilevatori permette di risalire alla traiettoria della loro emissione (rilevamento per coincidenza). Dall’intersezione delle diverse traiettorie individuate in corrispondenza di altrettante coppie di fotoni è possibile risalire ulteriormente alle regioni da cui essi provengono. Un’elaborazione digitale di questi dati permette infine di visualizzare tridimensionalmente le regioni d’emissione e di correggere le eventuali distorsioni dovute all’assorbimento dei tessuti.

La risoluzione spaziale della PET è dell’ordine del millimetro: più che sufficiente, dunque, a rilevare fenomeni di attivazione cerebrale di larga scala. Ciò che invece ostacola, dal punto di vista spaziale, l’interpretazione dei dati che da tale tecnica si ottengono è l’estrema difficoltà di mettere in relazione le misure dell’attività cerebrale, indotta da particolari compiti, con la struttura soggiacente del cervello, dal momento che non emergono in esse landmarks anatomici: è possibile ovviare a tale ostacolo tramite la sovrapposizione delle scansioni ad immagini neuroanatomiche del medesimo soggetto ottenute attraverso risonanza magnetica, così da poter localizzare con precisione le strutture cerebrali in cui si sono rilevati picchi di irrorazione sanguigna.

Sotto il profilo temporale, la PET risulta, per contro, una tecnica piuttosto povera, dal momento che i tempi necessari per l’acquisizione delle immagini risultano notevolmente più lunghi della durata dei processi che essi intendono misurare: l’attività in cui il soggetto è impegnato deve di conseguenza essere mantenuta o ripetuta per tutta la durata temporale richiesta dagli strumenti ai fini dell’acquisizione dei dati[7]. A parziale soluzione di tale debolezza, le misure effettuate tramite PET sono spesso affiancate a rilevazioni, di grande precisione temporale, tramite EEG.

Il limite maggiore consiste però nel fatto che la PET, richiedendo l’impiego di traccianti radioattivi è una tecnica invasiva, con la conseguenza che il numero di esperimenti reiterabili per soggetto è notevolmente limitato.

 

4.     Risonanza Magnetica Nucleare Funzionale (fMRI)

Basata sul fenomeno della risonanza magnetica nucleare, che sfrutta le proprietà nucleari di certi atomi in presenza di campi magnetici[8], la tecnica è entrata in uso negli anni ’70 allo scopo di ottenere immagini dettagliate dell’anatomia cerebrale (MRI). Attraverso tecniche di rilevamento ultrarapido dei dati, è divenuta possibile l’acquisizione di immagini in tempi talmente ridotti (dell’ordine del centesimo di secondo) da permettere di seguire nel loro svolgimento alcuni aspetti del metabolismo: si parla in questo caso di MRI funzionale (fMRI). Applicato alla fisiologia del cervello, l’fMRI ha permesso di visualizzare su una scala temporale estremamente fine le variazioni dell’ossigenazione delle regioni corticali, variazioni che si considera siano in stretta relazione con il grado di attività delle regioni stesse. Si sono sfruttate a questo scopo le proprietà magnetiche di cui godono le molecole di emoglobina, proprietà che differiscono leggermente a seconda che questa sia legata o meno all’ossigeno. Si registrano dunque immagini che si ipotizza rappresentino fedelmente le variazioni dell’attività neurale regionale laddove si evidenzia un contrasto fra regioni ricche in ossiemoglobina, in cui cioè il flusso sanguigno risulta accresciuto, e regioni dal flusso sanguigno normale[9]. Se, rispetto alla PET, il segnale rilevato è più debole, minore la sensibilità e peggiore di conseguenza il rapporto segnale/rumore, i vantaggi rispetto a quest’ultima sono molteplici. Oltre alla risoluzione temporale accresciuta, va sottolineato in primo luogo che l’fMRI si basa su un segnale intrinseco che non richiede alcun tipo di tracciante. Inoltre, rispetto alla PET, le misurazioni ottenute per fMRI dell’attività legata al compito svolto dal soggetto in sede sperimentale possono essere rapportate direttamente alle immagini anatomiche tridimensionali del soggetto ricavate con la stessa tecnica. 

 

L’insieme di queste tecniche, unitamente a quelle di analisi microstrutturale e agli studi di lesione, ha aperto uno spazio di indagine estremamente ampio per studiare l’organizzazione e il funzionamento del cervello: è oggi possibile misurare tramite tecniche diverse l’attività neurale dal livello sinaptico fino a quello convoluzionare, così come studiare fenomeni che si collocano sotto il profilo temporale intorno a una durata dell’ordine del millisecondo (le interazioni fra neuroni) fino a fenomeni relativamente lenti, come quelli legati all’apprendimento.

 

Figura 1. Schema comparativo della risoluzione spazio-temporale
delle principali tecniche per lo studio dell’anatomia funzionale del cervello

(da Posner & Raichle, 1994).

 

In complesso, si è riconosciuto che la grande innovazione apportata dall’impiego di tecniche come la PET o l’fMRI, rispetto alle tecniche più classiche, consiste nel fatto che, pur non fornendo che una misurazione indiretta dell’attività cerebrale, esse hanno permesso per la prima volta di visualizzare in modo tridimensionale e con una notevole definizione spaziale il flusso sanguigno cerebrale, indicatore della variazione locale dell’attività del cervello. In particolare, le tecniche di brain imaging hanno rappresentato il primo potente strumento non invasivo per la localizzazione di funzioni cognitive nel cervello umano e sono state, di conseguenza, una ponte teorico fra gli studi dettagliati sugli animali e le eterogenee informazioni neuropsicologiche sulla specializzazione funzionale del cervello dell’uomo. Il caso più significativo, in questo senso, è forse quello dell’applicazione del brain imaging allo studio delle basi neurali del linguaggio, questione fra le più antiche e dibattute in sede neuropsicologica e tra le meno comparabili, per definizione, con dati relativi ad altre specie animali[10].

Le forti aspettative (e al tempo stesso le grandi riserve) che molti studiosi nel campo delle scienze cognitive hanno mostrato nei confronti del brain imaging sono intimamente legate all’idea che esso potesse per la prima volta fornire una misura integrata nel tempo dell’attività globale del cervello umano in relazione a un determinato compito, o – in altre parole – una visualizzazione, precisa dal punto di vista temporale, delle diverse aree cerebrali coinvolte nella realizzazione di un compito. In particolare, l’introduzione della PET per lo studio dell’organizzazione funzionale del cervello e della struttura dei processi cognitivi è stata salutata da diversi ricercatori come una vera e propria rivoluzione, al tempo stesso tecnologica ed epistemologica, ed assunta ad indicare simbolicamente l’atto di nascita delle moderne “neuroscienze cognitive”

 

“The heart of the problem of constructing neural models of cognition is to move from the level of performance to underlying neural systems or microcircuits. Neuroscience approaches have placed somewhat greater emphasis on spatial methods that give hope for studying localization. Cognitive approaches have tended to place emphasis on the temporal organization of information flow in the nervous system. Cognitive neuroscience requires the integration of methods that trace the time dynamics of information processing with those that provide information on the location of neural systems activated”.[11]

 

Nei paragrafi che seguono cercheremo di valutare la portata di questa rivoluzione, mostrando quanto nelle tecniche di brain imaging sia stato ereditato dai metodi tradizionali e quanto invece rappresenti in esse un genuino progresso. Lasceremo pertanto da parte l’approfondimento del quadro teorico entro cui si inscrivono tecniche più tradizionali come EEG e MEG, e ci concentreremo su quello relativo alle nuove metodologie, cercando di sviscerare i maggiori problemi epistemologici alle quali esse soggiacciono e l’insieme delle assunzioni dalle quali la loro validità sperimentale dipende.


IV.2   - PROBLEMI EPISTEMOLOGICI CONDIVISI DA STUDI COMPORTAMENTALI E NEUROSCIENTIFICI

 

            Si è detto che il brain imaging (espressione con la quale intenderemo d’ora innanzi le tecniche di PET e fMRI) viene considerato oggi lo strumento principe per lo studio della cognizione e delle sue basi neurali: ciò è legato al fatto che in esso convergono tanto prerogative proprie degli studi comportamentali, quanto quelle delle neuroscienze tradizionali.

          Ci proponiamo, in questa prima parte, di osservare quale sia il rapporto del brain imaging con le metodologie di indagine  precedenti, quali siano le affinità e le maggiori differenze nei confronti di queste ultime, nonché a che  tipo di questioni, nuove e antiche, l’impiego del brain imaging può cercare di dare una risposta. In particolare considereremo i problemi relativi alla misura ed all’interpretazione dei dati, mostrando quale ruolo abbia avuto a questo proposito sul brain imaging l’eredità degli studi comportamentali e neuroscientifici.

 

Il brain imaging e l’elettrofisiologia si possono considerare metodologie sotto molti aspetti complementari. Se infatti da un lato l’elettrofisiologia si è rivelata promettente per lo studio delle mappe sensorimotorie o dei sistemi più periferici (quali, per esempio, il sistema visivo o uditivo), il brain imaging sembra invece permettere un’indagine più accurata di sistemi complessi come quelli coinvolti in attività cosiddette “alte”, quali il linguaggio, il problem solving, etc... Ciò è dipeso essenzialmente da due fattori-chiave per la comprensione dei processi cognitivi: l’esigenza di visualizzare l’attività globale del cervello, piuttosto che il comportamento locale di singoli neuroni, nonché il maggiore interesse per i rapporti di interazione tra aree diverse, che per una tassonomia funzionale delle aree del cervello.

Si tratta, in primo luogo, di due livelli diversi di grana descrittiva: mentre al fine di mappare – ad esempio – la specializzazione delle cortecce sensorimotorie sono necessarie misure al livello di singoli neuroni, per studiare la relazione fra il cervello e funzioni comportamentali complesse è necessario assumere uno spettro di analisi meno fine e più ampio che renda conto dell’attività globale del cervello: sebbene, infatti, le strutture “minime” che veicolano l’informazione si considerino in genere i neuroni, la comprensione di quali processi siano richiesti da particolari abilità cognitive richiede che si descriva l’attività cerebrale a livello di strutture più macroscopiche quali intere popolazioni di neuroni, che si individuino cioè aree cerebrali di diversa specializzazione che concorrono allo svolgimento di determinate funzioni.

Inoltre, bisogna distinguere le due diverse idee di spiegazione che sono qui in gioco[12]: da un lato abbiamo infatti un tentativo di comprendere l’anatomia funzionale del cervello, ovverosia l’identificazione di aree che rispondano selettivamente a vari aspetti del comportamento cognitivo e sensorimotorio; dall’altro l’aspirazione a descrivere l’architettura funzionale di un sistema cognitivo, ovvero l’individuazione di quei principî gerarchici che regolano i rapporti di interazione fra aree di diversa specializzazione ai fini della realizzazione di un task. Concentrarsi sulle mappe piuttosto che sui principî gerarchici non significa certo assumere due abiti teorici che si escludano vicendevolmente: per una parte della ricerca neuroscientifica i principî gerarchici e il trattamento dell’informazione rappresentano il fine ultimo dell’indagine, benché esso sia raggiungibile soltanto a partire da un’analisi anatomo-funzionale delle mappe cerebrali; per altri, l’obiettivo può essere quello di mettere in relazione diretta aree del cervello ed architetture cognitive o modelli psicologici, ma questo richiede a sua volta un approccio che tenga conto dei principî gerarchici. A questi due aspetti dell’organizzazione del cervello corrispondono le due grandi direttrici della ricerca neurocognitiva.

Due sono, più precisamente, i tipi di domande cui il brain imaging può cercare di dare una risposta:

 

(A)   Utilizzare informazioni funzionali - note dalla psicologia cognitiva - sulla sequenza delle operazioni richieste da un task allo scopo di distinguere quali strutture cerebrali ne siano responsabili (variabile spaziale in funzione del tempo).

 

 (B)  Impiegare, viceversa, le informazioni sulla localizzazione dell’attività neurale per comprendere quali passaggi computazionali il cervello realizzi in corrispondenza di una data attività cognitiva (variabile temporale in funzione dello spazio)[13].

 

Ad una prima analisi, ciascuna di queste due strategie inferenziali sembra presupporre l’altra: (B) richiede infatti una conoscenza prioritaria sulla localizzazione di componenti funzionali che, apparentemente, non le può derivare che da (A); (A), inversamente, riposa sulla conoscenza di modelli di architettura funzionale che si considerano costruiti anche attraverso (B). In realtà, che non ci sia alcun circolo vizioso tra queste due questioni è garantito dal fatto che le assunzioni da cui esse muovono sono generalmente indipendenti. Da un lato, infatti, i modelli funzionali utilizzati per inferenze sulla localizzazione (A) sono costruiti su basi comportamentali diverse dal brain imaging (psicologia cognitiva, neuropsicologia); dall’altro le ipotesi di localizzazione impiegate per inferenze sull’architettura funzionale sono il frutto di lente acquisizioni derivanti, oltre che dal brain imaging, dalle diverse metodologie neuroscientifiche (oltre alla neuropsicologia, l’elettrofisiologia e gli studi di lesione – sia sull’uomo che su altre specie animali)[14].

È importante tuttavia sottolineare l’importanza dell’indipendenza delle ipotesi per evitare che  le teorie costruite a partire dal brain imaging soffrano di circolarità. Abbiamo già sottolineato nel capitolo III l’importanza di mantenere rigorosamente distinti il piano architettonico da quello anatomo-fisiologico e di mantenere scevre da ingerenze reciproche le nozioni di “località funzionale” (che definiscono cosa si intenda per “modulo”) e “località implementazionale” (che definisce cosa sia un’ “area di elaborazione”). Mostreremo come questa distinzione risulti ancora più cruciale nel caso del brain imaging: ogni inferenza basata su questa metodologia dovrà infatti rispettare la distinzione fatta in precedenza fra due classi autonome di questioni. Rispondere ad una domanda sulla localizzazione esclude cioè che si possa al tempo stesso rispondere ad una domanda sull’architettura funzionale e viceversa: solo sotto queste restrizioni, il brain imaging può fornire ipotesi affidabili sul rapporto che intercorre fra l’anatomia funzionale del cervello e l’architettura funzionale dei processi cognitivi.

Ci proponiamo in questo capitolo di mostrare quali problemi sperimentali e teorici ostacolino il duplice progetto espresso nelle strategie inferenziali (A) e (B) o lo rendano realizzabile solo al costo di fortissime assunzioni metodologiche. In particolare, ci soffermeremo sulle ragioni che rendono: 1) troppo deboli i vincoli comportamentali per interpretare i dati di natura anatomo-fisiologica che il brain imaging fornisce e, viceversa, 2) troppo legati a fattori contestuali questi ultimi per poter utilmente limitare le architetture dei sistemi cognitivi corrispondenti.

 

Senza soffermarci a lungo sui problemi strettamente sperimentali che riguardano le tecnologie di brain imaging, ci limiteremo qui a passare in rassegna quelli che riteniamo più rilevanti per le conseguenze teoriche ed epistemologiche che ne derivano: quelli cioè legati alla risoluzione spaziale ed alla risoluzione temporale delle misurazioni.

 

Consideriamo, in primo luogo, il problema della definizione spaziale. Si è già detto che nello studio della cognizione la forza del brain imaging rispetto all’elettrofisiologia consiste in primo luogo nella maggiore globalità della misura dell’attività neurale dal punto di vista spaziale. Si considera in genere che la risoluzione spaziale di una tecnica di misura sia inversamente proporzionale alla sua portata spaziale: tanto più precise sono cioè le informazioni locali che uno strumento ci fornisce, tanto più ridotto il volume campionato[15]. Il brain imaging coniuga una risoluzione spaziale sufficientemente fine ad un sampling volume adeguato alla misurazione dell’attività di intere aree corticali[16]. Ciò che va ovviamente perso è la possibilità di confrontare informazioni di tipo funzionale con informazioni di carattere citoarchitettonico o anatomico, nonché di esaminare con precisione la connettività tra circuiti[17]. La conseguenza più grave di questo limite emerge soprattutto nella generalizzazione dei dati funzionali che si ottengono da misurazioni su singoli individui: essendo difficile mettere in relazione le informazioni sulla specializzazione funzionale ottenute tramite brain imaging con criteri indipendenti di analisi anatomica che definiscano aree cerebrali distinte (come invece avviene nell’elettrofisiologia delle singole cellule, cfr. cap. II), le strategie impiegate per l’esportazione dei dati relativi a singoli individui diventano critiche. A quali tessuti del cervello corrisponda l’attivazione registrata dal brain imaging, è difficile da stabilire con precisione[18]. Il brain imaging non è cioè in grado di isolare l’attività di aree cerebrali definite come, poniamo, potrebbero essere V2 o V4 nel sistema visivo. Le soluzioni offerte a questo problema riflettono lo stesso divario che in sede neuropsicologica intercorre tra group studies e single case studies (cfr. cap. I). Da un lato, infatti, le scansioni possono subire un trattamento di averaging intersoggettivo, venir cioè confrontate con quelle ottenute da individui diversi: si sviluppano in questo modo atlanti statistici della specializzazione funzionale del cervello che, sovrapponendo dati provenienti da diversi soggetti, descrivano un “cervello standard” ottenuto per trasformazione delle variabilità anatomiche individuali. Dall’altro, la tendenza opposta è quella intesa a costituire enciclopedie dei dati relativi a singoli individui, in cui le immagini “funzionali” siano state rapportate alla struttura cerebrale del soggetto col supporto dell’MRI anatomico[19].

 

Una seconda classe di problemi riguarda la risoluzione temporale delle misurazioni. L’importanza degli strumenti attuali di cui disponiamo per mappare il cervello sta nella possibilità di effettuare misure ripetute dell’attività cerebrale: si distinguono tecniche in grado di eseguire misurazioni indipendenti ripetute, misurazioni temporalmente continue, singole misurazioni di lunga durata o singole misurazioni simultanee di diverse variabili fisiologiche[20]. I parametri in gioco, a questo proposito, sono la risoluzione temporale propriamente detta e la frequenza di scansione. Dal momento che i dati ottenuti attraverso brain imaging sono rappresentazioni “statiche” di un’attività cerebrale che si sviluppa nel tempo, è chiaro che entrambi questi parametri sono cruciali per la qualità stessa dei dati. Più in particolare, quando si parla di risoluzione temporale per tecniche di brain mapping è necessario considerare innanzitutto due diversi aspetti: la risoluzione temporale dello strumento di misura e la risoluzione temporale del processo che si intende misurare. La condizione minima che va rispettata è ovviamente che la prima di queste risoluzioni non sia maggiore della seconda. Nel caso della PET tale condizione viene palesemente violata: le immagini ottenute attraverso questa tecnica richiedono infatti un tempo di acquisizione che varia dai 30 secondi ai 2 minuti, durante i quali un preciso task viene reiterato o protratto - il che la rende, di conseguenza, inadeguata a descrivere processi che si realizzino in intervalli dell’ordine dei millisecondi. La scarsa risoluzione temporale della PET non permette cioè di seguire in tempo reale il percorso dell’attività cerebrale attraverso aree diverse e rende vano il tentativo di comprendere le relazioni gerarchiche che sussistono fra le diverse aree cerebrali coinvolte (Si confronti il punto (B) che abbiamo indicato all’inizio del capitolo). L’fMRI, per contro, permette di ottenere e confrontare risposte evocate a partire da singoli stimoli o eventi con una frequenza che può giungere fino a circa 20 scansioni al secondo, con il vantaggio di liberare le misure da quelle interferenze che nella PET derivano da modulazioni attenzionali – dettate dalle necessità temporali del rilevamento[21]. Va però osservato che non è possibile pensare nemmeno all’fMRI come a una metodologia di misurazione continua sotto il profilo temporale, pari – ad esempio – all’EEG. Se infatti da un lato i tempi teorici di misura sono notevolmente ridotti (per quanto riguarda i singoli “voxel” o unità di rilevamento del segnale), dall’altro, non vanno trsacurati due fattori considerevoli: in primo luogo, la scansione di intere sezioni cerebrali richiede qualche secondo, ovvero tempi superiori a quelli della durata dei processi misurati; inoltre, va puntualizzato il fatto che se i processi che riguardano l’attività neurale si assestano al più su durate dell’ordine del centinaio di millisecondi, i processi del metabolismo sanguigno sono generalmente più lenti: l’insieme di questi due fattori fa sì che anche un miglioramento tecnico della risoluzione temporale degli strumenti non possa risolvere questo limite.

 

Conclusa questa rassegna sui problemi sperimentali, legati alla risoluzione spazio-temporale degli strumenti di misura, possiamo accingerci ad esaminare i problemi teorici che riguardano, prima ancora dell’interpretazione in senso  delle immagini ricavate dal brain imaging in rapporto all’architettura funzionale dei processi studiati, l’affidabilità stessa della misurazione dell’attività neurale che da questo si ottiene. Prima cioè di affrontare la questione relativa al modo in cui il brain imaging può fornire dati sufficientemente rilevanti per permettere di identificare il correlato neurale di operazioni postulate in sede comportamentale, è opportuno soffermarci sul problema di ciò che PET e fMRI propriamente misurano e sul rapporto che i parametri misurati hanno con quanto ci interessa rilevare, cioè la dislocazione spaziale delle aree di maggiore attività cerebrale.

 

È nota la differenza che intercorre tra metodi di misurazione diretta dell’attività cerebrale (tecniche elettrofisiologiche, potenziali evocati, etc…), e metodi di misurazione indiretta della stessa, metodi che cioè inferiscono la variazione di tale attività in funzione di altri parametri fisiologici. È questo il caso di tutte le tecniche appartenenti alla categoria del brain imaging propriamente detto: tanto la PET quanto l’fMRI misurano indirettamente l’attività del cervello accettando l’ipotesi che essa sia direttamente legata alle variazioni dell’irrorazione sanguigna dei tessuti (cerebral blood flow, CBF). L’affidabilità di questa misurazione indiretta dipende dalla seguente serie di assunzioni[22]:

 

a.     variazioni nel CBF riflettono variazioni nell’attività sinaptica.

b.     i patterns di attivazione cerebrale forniscono una base affidabile dalla quale inferire l’anatomia funzionale, anche se essi non manifestano altro che processi fisiologici.

c.      aumenti di CBF corrispondono normalmente a processi eccitatori.

d.     Il CBF aumenta monotonicamente rispetto al grado di attività neurale, ovvero più un’area cerebrale è attiva, più aumenterà l’irrorazione sanguigna dei suoi tessuti.

e.     maggiore è l’incremento del CBF, maggiore il contributo dell’area cerebrale alla realizzazione del task.

f.      aree coinvolte nella stessa misura da un task mostrano una richiesta sanguigna pari.

g.     assenza di variazioni di CBF indica assenza di variazioni nell’attività cerebrale.

 

Alcune di queste assunzioni sono talmente consolidate da non essere generalmente messe in discussione (è il caso di a. e d.)[23]. Le altre invocano allo stato delle attuali conoscenze un’ulteriore convalida e si espongono più facilmente alla critica: vediamo quali casi possono rispettivamente invalidarle.

L’assunzione b. rappresenta, in una prima e più debole accezione, una semplice riformulazione di quell’ipotesi di stabilità architettonica su cui riposa l’idea stessa di localizzazione[24]. L’anatomia funzionale di un cervello adulto si considera in genere sufficientemente stabile da escludere forme di plasticità e di modifica che interessino, da un punto di vista anatomico, la specializzazione delle aree cerebrali; le stesse modifiche legate all’apprendimento (rafforzamento e indebolimento di connessioni) non si considerano altresì tali da inficiare la validità di quest’idea di localizzazione. Sotto un altro riguardo, qui più pertinente, l’assunzione b. può invece essere letta come un’assunzione più problematica, in quanto esclude che la misura dell’attività cerebrale attraverso le variazioni dei flussi sanguigni sia sensibile a fattori estrinseci – come l’affaticamento, l’ansietà o l’assunzione di stupefacenti – che, pur senza interessare l’anatomia, possano temporaneamente alterare, a livello fisiologico, la regolarità dei processi. Da un punto di vista sperimentale, l’accettazione di b. richiede quantomeno un’estrema cautela nel fissare il contesto in cui le misurazioni vengono effettuate.

L’assunzione c. risente del fatto che la “polarità” dell’attivazione cerebrale (eccitatoria o inibitoria) non è discernibile attraverso i criteri di misura adottati dal brain imaging. Particolari aumenti di flusso sanguigno in alcune aree potrebbero cioè indicare dispendiosi processi inibitori richiesti dal task e riflettere dunque un aumento di attività in aree la cui funzione deve, a rigore, essere mantenuta inibita[25].

Dall’assunzione e. dipende l’interpretabilità in termini cognitivi dei risultati ricavati dal brain imaging, tuttavia nulla garantisce che un incremento dell’attività neurale regionale sia legato in modo direttamente proporzionale al grado di partecipazione di determinate strutture cerebrali al task. Al contrario, tale aumento potrebbe essere riconducibile ad una iterazione dello stesso processo richiesta da difficoltà intrinseche del sistema[26]. Per contro, è noto come il priming e l’apprendimento possano ridurre notevolmente le risorse impiegate per realizzare uno stesso task, con la conseguenza che la relazione tra l’incremento di irrorazione sanguigna locale di un’area e la sua partecipazione all’attività non è necessariamente lineare.

L’assunzione f. rappresenta un criterio minimo a garanzia della “trasparenza” delle misurazioni: la parità della richiesta sanguigna da parte di aree coinvolte nella stessa misura da una determinata attività. In realtà, nulla mostra che lo svolgimento di un processo debba richiedere che la ripartizione del flusso sanguigno sia omogenea per ciascuna delle aree coinvolte.

L’assunzione g. non permette di contemplare il caso in cui aumenti e diminuzioni del CBF all’interno di un’area circoscritta possano annullarsi reciprocamente non facendo così emergere alcuna variazione misurabile nel CBF complessivo, malgrado l’evidente coinvolgimento dell’area nel task in esame[27].

Queste le principali ipotesi operative che occorre addurre per garantire l’affidabilità delle misurazioni indirette dell’attività cerebrale ricavate dal brain imaging.

 

Le difficoltà e le assunzioni di maggior peso riguardano però un altro ordine di problemi, quello cioè relativo all’interpretazione in senso “funzionale” delle immagini. Se anche le misurazioni effettuate sono, infatti, affidabili e condotte sulla scorta di criteri largamente condivisi, la difficoltà critica resta quella di porle in relazione significante con il comportamento del soggetto dalle quali sono state desunte. 

Il caso del brain imaging è esemplare, in questo senso, proprio per il fatto che esso applica modelli comportamentali all’interpretazione di dati di natura neurofisiologica. Cercheremo di mettere in luce, in quanto segue, come la natura ibrida del brain imaging - che compone metodologie tipiche degli studi comportamentali con metodologie tipiche degli studi neuroscientifici - non lo sottragga affatto ai problemi epistemologici che tradizionalmente affliggono entrambi questi tipi di approccio nell’individuazione delle architetture funzionali di particolari sistemi cognitivi.

 

La prima classe di problemi epistemologici che ci interessa esaminare è quella che apparenta il brain imaging con altre tecniche più tradizionali di ricerca neuroscientifica, quali l’elettrofisiologia e gli studi di lesione su animali. A tale scopo, va in primo luogo considerata una delle divergenze epistemologiche più rilevanti fra lo studio della cognizione e lo studio di processi prossimi alla periferia sensoriale.

Prendiamo il caso della visione: la fortuna che ha toccato lo studio del sistema visivo dei primati è dipesa fondamentalmente dal fatto che la natura degli stimoli, considerati responsabili delle attivazioni neurali misurate, è ampiamente nota sotto il profilo fisico. La luce è un’entità fisica le cui proprietà sono conosciute e tali da essere immediatamente confrontabili con le proprietà alle quali il sistema visivo si crede risponda nei primi stadi di elaborazione del segnale retinico: tutte le caratteristiche salienti degli stimoli visivi (intensità luminosa, lunghezza d’onda, movimento, orientazione spaziale, etc.) sono cioè riducibili a grandezze fisiche omogenee a quelle attraverso cui viene studiata l’attività cerebrale[28].

È la stessa ragione a impedire che si possa parlare nello stesso senso di una psicofisica del linguaggio: le proprietà salienti in uno stimolo verbale non sono ricostruibili, secondo un processo strettamente bottom-up, a partire dalle sue proprietà fisiche, si richiede al contrario che intervengano per la loro decodifica capacità estremamente elaborate del sistema cognitivo (come processi di riconoscimento fonologico e di recupero della forma fonologica della parola). Ciò che con questo esempio intendiamo illustrare è che l’interpretazione del rapporto sussistente fra un comportamento cognitivo, come la percezione di uno stimolo linguistico, e la corrispettiva attività neurale è di interpretazione molto più complicata che non quella dell’attività indotta a stadi primari di elaborazione delle informazioni sensoriali: le cortecce uditive si attiveranno, nel nostro caso, di fronte a tratti comunque presenti nello stimolo verbale (come le proprietà acustiche di frequenza o intensità del suono), ma la cui rilevanza è limitata per la comprensione del processo che stiamo considerando.

Questo problema interessa l’interpretazione di tutte le misurazioni effettuate in risposta a stimoli in approcci del tipo bottom-up[29]: tanto, quindi, l’interpretazione dell’attività neurale registrata con tecniche di brain imaging quanto quella delle specializzazioni funzionali delle aree più complesse dei sistemi sensoriali, indagate attraverso tecniche elettrofisiologiche. La comprensione del rapporto fra cervello e comportamento deve riposare in questi casi su una descrizione chiara ed esaustiva dei processi richiesti a livello psicologico, dal momento che la loro articolazione non può essere inferita sulla sola base della fisiologia (né dalle variazioni di CBF, né dalle risposte elettriche delle aree esaminate). Solo un modello che scomponga un processo nelle operazioni che lo costituiscono e ne specifichi la natura,  gli obiettivi, nonché i rapporti gerarchici fra i singoli stadi necessari alla sua realizzazione – solo un simile modello può spiegare il ruolo sistematico di un’area cerebrale coinvolta in tale processo[30].

In mancanza di un modello interpretativo di questo genere, i dati neurofisiologici restano sottodeterminati rispetto alle possibili cause (per esempio dimensioni dello stimolo non considerate) che potrebbero esserne responsabili. Di per sé, tali dati possono essere impiegati per descrivere il comportamento di popolazioni neurali sensibili in modo selettivo a specifici stimoli, ma già la definizione stessa di che cosa sia lo stimolo richiede l’integrazione di un modello costruito su base psicologica o comportamentale. Possiamo altresì affermare che la presentazione di uno stimolo o lo svolgimento di un task “producono” l’attivazione di determinate aree e che, sotto le assunzioni che abbiamo elencato, tali aree possano considerarsi “attivamente coinvolte” nel processo in esame, ma ogni inferenza che muova da questa semplice evidenza alla definizione di quali stadi di elaborazione siano rispettivamente realizzati dalle aree attivate deve fare i conti con le molteplici ragioni che possono aver indotto la stessa attivazione[31]. Abbiamo con questo individuato un’ulteriore difficoltà legata alla realizzazione di una delle strategie inferenziali (B) da cui dipende il valore esplicativo del brain imaging.

Torneremo oltre sul “corto circuito” epistemologico che l’interpretazione dei dati neurali attraverso modelli comportamentali può generare. Qui, basti osservare che il limite maggiore all’utilizzo dei dati neurofisiologici per rispondere a qualsiasi tipo di domanda sull’architettura funzionale di un sistema o sulla sua localizzazione cerebrale è la difficoltà di sceverare l’informazione rilevante dal punto di vista sperimentale da effetti non indotti dallo stimolo o da proprietà derivanti dalle interazioni fra i componenti del sistema non contemplate nell’architettura funzionale del sistema studiato.

Per compensare questo limite e per restringere lo spettro delle possibili interpretazioni alternative degli stessi dati, sono state sviluppate strategie che vanno sotto il nome di “tecniche sottrattive”, delle quali ci occuperemo nella prossima sezione.

Abbiamo fin qui delineato sommariamente i limiti epistemologici che accomunano il brain imaging ad altre metodologie neuroscientifiche, limiti che derivano complessivamente – all’atto dell’interpretazione delle mappe di attivazione – dal problema dell’individuazione dei tratti specifici di uno stimolo (o della determinazione delle specifiche operazioni) che generano l’attività rilevante.

 

Una seconda classe di problemi epistemologici è quella che il brain imaging eredita dagli studi comportamentali, siano essi quelli della psicologia cognitiva tradizionale o quelli della neuropsicologia. Mentre i limiti teorici che abbiamo precedentemente passato in rassegna riguardano le “falle” delle interpretazioni funzionali dei dati neurali, le difficoltà che ci proponiamo di individuare in questa sede sono, all’opposto, quelle relative all’inadeguatezza descrittiva dei modelli comportamentali addotti per la comprensione dei meccanismi neurali soggiacenti.

Sfida fondamentale per gli studiosi di scienze cognitive è da sempre stata quella di sviluppare strategie per restringere l’insieme delle architetture funzionali compossibili per la spiegazione di un determinato comportamento, quella cioè di disegnare esperimenti in grado di isolare “operazioni mentali” distinte[32]. Il problema che ci interessa a questo proposito è lo status dei modelli utilizzati per la costruzione di tali esperimenti: il rischio cui soggiace ogni modello di un processo cognitivo è infatti quello di fornire una descrizione sufficiente dei sottoprocessi richiesti per la realizzazione dell’obiettivo del processo considerato, ma deviante o inadeguata qualora impiegata per interpretare la reale architettura funzionale di un sistema cognitivo[33].

Il primo grande limite dei modelli sviluppati su basi comportamentali, e in particolare attraverso tecniche cronometriche (la metodologia “principe” della psicologia cognitiva classica) è quello della loro inevitabile serialità, ovverosia la loro incapacità di rendere conto di processi paralleli che possono concorrere alla realizzazione di un task.

Storicamente, va riconosciuto che i modelli complessivi di performance si sono evoluti per adeguarsi sempre più a caratteristiche note dell’architettura neurale; da un punto di vista operativo, tuttavia, il design dei singoli esperimenti (almeno quello legato alle forme tradizionali di sottrazione) deve assumere che le operazioni eseguite da un soggetto siano svolte in modo seriale e che ogni passaggio computazionale si possa considerare compiuto prima che si realizzi il successivo. In questo senso, le difficoltà centrali di un modello comportamentale sono quelle relative alla descrizione di meccanismi rientranti di controllo sui primi passaggi – meccanismi che entrano necessariamente azione in parallelo rispetto al flusso principale di elaborazione dell’informazione. Modelli seriali di particolari processi cognitivi  possono quindi cogliere alcune proprietà globali dei circuiti neurali che li implementano, ma sono modelli estremamente poveri  dal punto di vista dell’effettiva realizzazione di tali processi a livello cerebrale.

In secondo luogo, un problema non indifferente è legato all’architettura modulare dei sistemi. Dal punto di vista comportamentale, è essenziale stabilire in che misura l’attività di un componente sia autonoma o risulti invece penetrabile da parte di quella di altri sistemi (si veda quanto abbiamo detto in proposito nel capitolo III). L’evidenza neurologica mostra chiaramente come aree cerebrali considerate responsabili di determinati passaggi computazionali nella realizzazione di un task siano soggette a molteplici interazioni con aree di diversa specializzazione. Come nel caso dell’informazione rientrante, anche il problema della penetrabilità risulta estremamente complesso da gestire a livello sperimentale[34].

La debolezza maggiore dei modelli comportamentali consiste forse nella “plausibilità neurale” dei componenti che essi postulano dal punto di vista funzionale. L’argomento è stato uno dei “cavalli di battaglia” tradizionali delle critiche funzionaliste che hanno additato la radicale eterogeneità fra categorie utilizzate per descrivere l’architettura funzionale dei processi cognitivi e categorie adoperate in sede neuroscientifica[35]. Al di là di questo problema cui abbiamo già in parte risposto nel capitolo precedente, va rilevato che il semplice valore euristico e predittivo di un modello, in sede di localizzazione cerebrale, dipende in modo critico dall’insieme e dalla natura dei componenti funzionali che esso postula[36].


IV.3 - NUOVI PROBLEMI EPISTEMOLOGICI:

LA SOTTRAZIONE COGNITIVA

 

Come ogni altra metodologia per lo studio del rapporto fra cervello e comportamento, anche il brain imaging annovera, all’interno del suo apparato teorico, una serie di strategie atte a rendere “trasparenti” i dati osservativi - strategie intese, cioè, a limitare la proliferazione di spiegazioni plausibili dei fenomeni rilevati. Quella più ampiamente accettata in sede neuroscientifica va sotto il nome di “sottrazione cognitiva” e ha le sue radici negli studi di cronometria mentale inaugurati nel XIX secolo dall’olandese Donders. Scopo di tale strumento teorico, nella sua applicazione al brain imaging, è quello di isolare nel modo più preciso possibile l’attività neurale indotta dalle singole operazioni eseguite durante un task: segregare, cioè, l’informazione “rilevante” da tutti quegli effetti secondari dovuti alla normale attività del cervello[37]. L’aspirazione a misurare pattern di attivazione indotti in sede di laboratorio deve infatti fare i conti con l’inevitabile “rumore” dovuto all’insieme dei processi che il cervello svolge spontaneamente durante qualsiasi attività cognitiva o sensorimotoria. Isolare da questo ammasso di dati il correlato neurale di “operazioni mentali ” distinte è possibile soltanto se disponiamo preliminarmente di uno modello teorico che precisi, dal punto di vista comportamentale, quali siano queste operazioni e come interagiscano tra loro, nonché di una strategia che permetta di renderle identificabili in sede sperimentale: è solo attraverso questa strategia che il brain imaging può aspirare a fornire una risposta alla domanda sulla localizzazione cerebrale di componenti cognitivi (A) e sull’articolazione funzionale dei processi cognitivi (B).

Cercheremo di mostrare come in realtà la validità di questa strategia dipenda, a monte, da diverse assunzioni, tanto dal punto di vista implementazionale quanto funzionale, sulla natura modulare (in senso forte) dei sistemi cui viene applicata e sull’isolabilità di aree di elaborazione corticale distinte e come infine la localizzabilità dei componenti sia piuttosto un prerequisito all’applicazione che non un risultato di essa.

La rinascita del metodo sottrattivo è legata al nome di Saul Sternberg, che nel 1969 riaprì il dibattito attorno alla figura del fisiologo olandese F.C. Donders e ai suoi studi sulla velocità dei processi mentali[38]. Donders aveva sviluppato una prima rudimentale tecnica sottrattiva che, nelle sue intenzioni, avrebbe permesso di isolare le operazioni compiute da un soggetto impegnato in un task. Si consideri il caso del riconoscimento visivo di stimoli luminosi. Istruito a premere un pulsante non appena uno stimolo luminoso si presentava, il soggetto veniva sottoposto successivamente a due diversi stimoli luminosi e istruito a reagire soltanto al presentarsi di uno di essi: l’intuizione di Donders era che, sottraendo dal tempo impiegato per svolgere questo nuovo task il tempo della semplice reazione allo stimolo, si sarebbe potuta isolare la durata dell’operazione mentale consistente nella “discriminazione” dei due stimoli luminosi. Analogamente, istruendo il soggetto a reagire attraverso due differenti pulsanti ai due stimoli, Donders pensava di poter isolare per via sottrattiva la durata dell’operazione relativa alla “selezione” fra due risposte alternative, e così via. Il metodo di Donders godette di un ampio successo, ma non fu esente da critiche: venne presto messo in dubbio che il suo principio sottrattivo fosse realmente in grado di isolare le singole operazioni svolte dal soggetto: in particolare, si arguì, nel caso sperimentale sopra citato, più di un processo inconscio poteva intervenire fra la semplice reazione e la discriminazione fra stimoli o fra la discriminazione e la selezione. In altre parole, il modo in cui la sottrazione segmentava i processi mentali risultava arbitrario.

 

Il perfezionamento proposto da Sternberg, nel centenario della formulazione della teoria di Donders, mirava proprio a risolvere questa difficoltà: individuare un criterio che permettesse di isolare esattamente la durata di singole operazioni. La soluzione di Sternberg fu quella del “metodo dei fattori additivi”: assumendo che un task richieda una sequenza di operazioni, sosteneva Sternberg, è possibile valutare in che misura, manipolando le variabili, ne risenta la durata delle singole operazioni. Si veda il seguente esempio: al fine di determinare il tempo necessario a un soggetto per stabilire se un numero, presentato visivamente, appartenga o meno ad una lista di numeri preliminarmente scelta, si nota che, aumentando la lunghezza della lista che il soggetto deve memorizzare, il tempo richiesto per l’operazione aumenta linearmente. Il task viene suddiviso in quattro passaggi sequenziali (decodificazione dello stimolo, ricerca nella memoria attiva, selezione della risposta, attivazione della risposta) e la lunghezza della lista interpretata come una variabile influente solo sulla seconda di queste operazioni. Se il task in esame è veramente seriale e l’analisi proposta adeguata (ovverosia la variabile influente esclusivamente su questa  singola operazione), il metodo dovrebbe permettere di discernere quali siano le operazioni coinvolte nei diversi passaggi computazionali: isolare un’operazione in un task seriale consiste cioè, secondo Sternberg, nell’individuare variabili influenti su un singolo step, tali che la durata complessiva del task ne risenta in modo puramente additivo. Nel nostro esempio, variabili rilevanti possono essere le seguenti: la decodificazione dello stimolo è influenzata dalla chiarezza con cui è presentato, la ricerca nella memoria attiva dalla lunghezza della lista memorizzata, la selezione della risposta dalla maggiore o minore probabilità che lo stimolo ha di appartenere alla lista, l’attivazione della risposta dalla sua compatibilità. Alterando una di queste variabili, si modificherà esclusivamente la durata dell’operazione corrispondente, ma resterà identico il tempo impiegato dalle altre operazioni.

   

Tavola 1 - Stadi computazionali richiesti dal task di riconoscimento di  un oggetto presentato tramite stimolo visivo come appartenente ad un’insieme prestabilito di oggetti (in corsivo le variabili che influirebbero sui singoli stadi)

[Posner & Abdullaev (1996)]

 

Tramite questa prerogativa del metodo dei fattori additivi veniva risolta l’indeterminatezza del metodo sottrattivo di Donders nel segmentare la durata di singole operazioni. Il limite più gravoso della strategia sottrattiva originaria – l’assunzione, cioè, della stretta serialità dei processi – rimaneva però irrisolto anche nella proposta metodologica di Sternberg.

 

A tale  difficoltà si è cercato di rispondere attraverso una generalizzazione del metodo dei fattori additivi, che permettesse di distinguere all’interno di un processo cognitivo operazioni realizzate autonomamente (dal punto di vista della penetrabilità), in modo non necessariamente seriale[39]. In questo caso, l’individuazione di due distinte operazioni avviene attraverso una strategia dissociativa, mostrando cioè che una variabile che influenza la durata dell’una non ha alcun effetto sull’altra. L’idea è analoga a quella di Sternberg, soltanto – anziché essere applicata “verticalmente” a step successivi – essa viene applicata “orizzontalmente” ad operazioni che possono aver luogo contemporaneamente ma che si svolgono in modo autonomo. L’accorgimento teorico è quello di distinguere delle relazioni gerarchiche fra le diverse operazioni.   Si prenda il seguente esempio: un soggetto è istruito a reagire nel caso in cui due lettere che gli vengono presentate visivamente appartengano alla stessa categoria (per esempio, entrambe vocali). Si tratta di capire quali operazioni il soggetto svolga per effettuare la risposta. Le operazioni che concorrono a tale scopo possono tanto essere quelle relative al confronto “visivo” fra la forma dei due caratteri quanto quelle relative al confronto “semantico” del nome della lettera, operazioni che è ragionevole pensare avvengano in parallelo. Il tempo di reazione più breve lo si ha nel caso di due caratteri fisicamente identici (come “AA”); una maggiore durata è richiesta se le lettere indicate dai due caratteri sono le stesse, ma fisicamente diverse (“Aa”), durata che è a sua volta minore di quella richiesta da due caratteri che hanno in comune soltanto la categoria di appartenenza (come “Ae”, entrambe vocali). Ora, è verosimile supporre che la reazione allo stimolo “AA” sia effettuata soltanto confrontando il codice visivo e non i nomi delle lettere – il che spiegherebbe la relativa rapidità dell’operazione. Si può mostrare sperimentalmente che il tempo di reazione aumenta, se la dimensione (“AA”), il colore (“AA”) o la forma (“AA”) – tratti propri del codice visivo – vengono alterati, mentre il tempo necessario a riconoscere la stessa lettera in formato maiuscolo e minuscolo (“Aa”) rimane lo stesso. Viceversa, se al soggetto viene chiesto di tenere a mente altre lettere durante l’esperimento, il tempo necessario per reagire a lettere di forma diversa ne risulterà accresciuto, mentre quello per riconoscere lettere visivamente identiche rimane inalterato[40].

 

Figura 1 Tempi di reazione di soggetti istruiti a riconoscere l’identità fisica, l’identità del nome e  l’appartenenza ad una stessa classe di coppie di lettere presentate visivamente

[da Posner & Raichle (1994)].

 

 Attraverso test così congegnati, le operazioni che hanno luogo sul codice visivo delle lettere possono essere isolate da quelle sul codice fonologico.

 

Prima di passare alla descrizione di come le metodologie sottrattive si applichino al brain imaging, facciamo alcune considerazioni generali sulle strategie fin qui esaminate. Il metodo sottrattivo classico, il metodo dei fattori additivi e il metodo sottrattivo “gerarchico” – malgrado le notevoli differenze – condividono due assunzioni di fondo estremamente importanti. La prima è quella che chiameremo assunzione dell’irrilevanza del contesto. Quest’assunzione vuole che ogni variabile cognitiva considerata manifesti il proprio effetto in modo identico indipendentemente dal contesto del task in cui viene misurata. Il carattere critico di quest’assunzione sta nel fatto che l’individuazione di variabili cognitive è, come abbiamo mostrato, il criterio che ci permette di discernere le operazioni coinvolte in un task. Se la stessa operazione è ipoteticamente coinvolta in due task differenti, si deve cioè assumere che la manipolazione delle variabili che la riguardano sortisca lo stesso effetto in entrambi i task. Quest’assunzione riformula quella proprietà che va comunemente sotto il nome di information encapsulation ed è considerata uno dei tratti definitori della “modularità”, in senso forte, di un sistema[41]. Rimandando al capitolo III per una discussione sulla definizione di modulo, ci interessa qui valutare la tenuta epistemologica di quest’ipotesi in sede sperimentale. L’evidenza neuroscientifica mostra infatti, a dispetto di ogni semplificazione a fini descrittivi,  che qualunque  processo è influenzato da una serie di fattori esterni non sempre prevedibili. Accanto a fattori più facilmente rilevabili, come l’apprendimento e il priming, esistono fattori di “contesto” che non emergono in sede sperimentale se non come “rumore”, ovverosia come effetti non contemplati dal modello costruito per l’analisi del task. La conseguenza è che la segmentazione del task può risultarne compromessa e dare luogo ad artefatti. Vedremo in particolare come le conseguenze di quest’assunzione possano essere critiche all’applicazione del metodo sottrattivo alle immagini ottenute per brain imaging.

La seconda assunzione, in un certo senso speculare alla prima, è quella emersa nella trattazione del metodo di Sternberg e che indicheremo come assunzione di pura additività. Tale assunzione richiede che l’aggiunta di un’operazione ad un task (corrispondente alla manipolazione di determinate variabili) non produca effetti sugli altri componenti del sistema. Bisogna, in altri termini, garantire che ogni fattore influente su un componente funzionale lo sia esclusivamente su di esso, perché, in caso contrario, la sua manipolazione finirebbe per riverberare in tutta la machinerie del sistema[42]. Il rischio è legato alla proprietà che abbiamo indicato nel III capitolo come functional interdependence, secondo la quale un componente cognitivo potrebbe servire, a livello informazionale, sottocomponenti diversi e la sua attività avere dunque conseguenze sull’intera architettura di un sistema e non su un insieme limitato di componenti. Oltre a questo, l’assunzione di pura additività richiede che la manipolazione di alcune variabili nello stimolo non ne alteri in modo complesso le caratteristiche rilevanti, causando modulazioni da parte di altre operazioni: l’assunzione vuole cioè che manipolazioni di una variabile interessino singole dimensioni di uno stimolo[43]. Ad esempio, nel caso del task che abbiamo considerato precedentemente, nulla ci assicura che la modifica della forma dei caratteri non inneschi altri processi non attesi (e di conseguenza non interpretabili) a partire dal modello funzionale preliminarmente assunto a spiegazione di un task. Ci preme osservare che la precauzione suggerita da parte di diversi studiosi a proposito della manipolazione “ortogonale” delle variabili[44] sia tutt’altro che testabile e rappresenti piuttosto un’assunzione tacitamente accettata in ogni disegno sperimentale.

Complessivamente, queste due assunzioni appaiono speculari, dal momento che escludono rispettivamente la modificabilità di un’operazione da parte del contesto e la modificabilità del contesto da parte della stessa operazione. Le considerazioni addotte nei capitoli precedenti circa le interazioni (a livello funzionale) fra singoli componenti e resto del sistema mostrano come entrambe queste assunzioni siano troppo forti per rappresentare principî plausibili di analisi dell’organizzazione architettonica di un sistema, con la conseguenza che ogni strategia sottrattiva che su di queste è costruita si rivela uno strumento piuttosto criticabile per la scomposizione di un processo nei suoi componenti.

 

Così come, negli studi comportamentali, la sottrazione è uno strumento per risalire dalla semplice misura di un fenomeno (la durata di un processo mentale) ai fattori che lo determinano (l’intervento di operazioni nel processo), nel caso neuroscientifico essa serve alla ricostruzione dei fattori che generano l’attività neuronale rilevata. Il principio è semplice: per identificare nelle immagini ottenute attraverso le scansioni l’effetto di singole operazioni, abbiamo bisogno di un criterio per isolare tale effetto dal resto dell’attività misurata. La strategia è anche qui una strategia dissociativa: si tratta di concepire due processi mentali che differiscano per ipotesi di una sola operazione, tali cioè da generare l’attivazione di aree cerebrali “quasi” identiche. Confrontando poi i pattern di attivazione così ottenuti, è teoricamente possibile identificare – dalle loro differenze – quelle aree di attività associate esclusivamente all’operazione che distingue i due task[45]. 

 
Figura 2 Esemplificazione della tecnica sottrattiva, da Raichle (1998).

È evidente già da questa prima definizione che ciò che chiamiamo “sottrazione” in sede di brain imaging differisce radicalmente dalla sottrazione impiegata per lo studio dei tempi di reazione.

In primo luogo, mentre la variabile temporale considerata dalla cronometria rappresenta una misura diretta di una proprietà dei processi cognitivi (la loro velocità), la variabile spaziale del brain imaging (la dislocazione dei picchi nel metabolismo sanguigno) è una misura indiretta della proprietà che interessa rilevare (la dislocazione  dei picchi di attività neurale locale legata al compito effettuato)[46]: mentre nel primo caso la sottrazione si applica ad una misura diretta, in quest’ultimo la sottrazione si configura come differenza fra due misurazioni indirette della proprietà che si intende rilevare. La validità del metodo dipende dall’assunzione che la “differenza” fra misurazioni indirette sia un indicatore affidabile della proprietà studiata al pari delle misurazioni stesse.

In secondo luogo, diverso rispetto agli studi comportamentali è il valore epistemico dei dati ottenuti per via sottrattiva. Se la differenza cronometrica è interpretata come un indicatore del semplice intervento di un’operazione in un task, la differenza dei pattern di attivazione cerebrale si considera invece come un indicatore di due diversi fattori: da un lato l’effetto dell’addizione di un’operazione nel task manipolato, dall’altro la localizzazione neurale dell’area cerebrale la cui attivazione è risultata dalla manipolazione ovvero, sotto l’assunzione principale del metodo sottrattivo, l’area cerebrale responsabile di tale operazione. Abbiamo già segnalato come sia da escludere la possibilità di rispondere contestualmente a domande circa  la localizzazione cerebrale e l’architettura funzionale di un sistema: basti qui osservare che il pattern  di attivazione ottenuto per via sottrattiva, per essere trattabile come un dato corretto a fini inferenziali, deve rispettare tale restrizione metodologica.

Complessivamente, possiamo affermare che l’affidabilità del metodo sottrattivo applicato al brain imaging dipende, a rigore, da un insieme di assunzioni diverso e, in alcuni aspetti, più complesso rispetto a quelle richieste dalla sottrazione in sede psicologica.  Uno schema generico di queste assunzioni ci è fornito dalla Sergent [47]:

 

 

A.    il flusso dell’informazione nel cervello è essenzialmente seriale, gerarchicamente organizzato e si sviluppa in modo unidirezionale (feedforwardness).

B.    il soggetto esegue tutte e sole le operazioni rilevanti allo svolgimento del compito, accanto a quelle di base che emergono nello stato di controllo.

C.    tale componente esegue sempre le stesse operazioni indipendentemente dal particolare processo in cui è coinvolto e dagli altri componenti che vi partecipano.

D.    una variazione nei pattern di attivazione cerebrale è un indicatore dell’intervento nel compito esaminato di un determinato componente cognitivo.

E.    tale componente cognitivo è associabile ad una popolazione di neuroni definita e compatta (clustered) nella corteccia.

 

Le assunzioni A-C sono analoghe a quelle cui soggiace la sottrazione classica. Sono però necessarie alcune precisazioni in merito.

Va rilevato innanzitutto, rispetto alla posizione espressa dalla Sergent, che il carattere seriale del modello (A) è richiesto soltanto qualora si applichino strategie sottrattive tradizionali: l’impiego di design fattoriali (corrispondenti alle strategie dei fattori additivi o di ciò che abbiamo chiamato “sottrazione gerarchica o complessa” della psicologia comportamentale) non domanda necessariamente che il compito sia da considerarsi svolto in modo seriale.

La D altro non è che la riformulazione dell’assunzione relativa all’interpretabilità dell’effetto della manipolazione di variabili cognitive nel caso del brain imaging. Se in sede comportamentale l’isolabilità di singole operazioni attraverso la manipolazione di variabili dipendeva dalle due assunzioni di irrilevanza del contesto e di pura additività, in sede di interpretazione di dati neurofisiologici essa richiede che queste stesse proprietà valgano, oltre che a livello funzionale, a livello implementazionale: ovverosia che ogni componente cognitivo invochi un’attivazione cerebrale isolabile, indipendentemente dal contesto fisiologico in cui essa è rilevata, e che a sua volta sia priva di influenze sul grado di attivazione di altre regioni[48].

La E rappresenta infine un’assunzione propria dell’applicazione del metodo sottrattivo al brain imaging. Abbiamo già discusso dei problemi relativi a sistemi neurali specializzati, ma distribuiti in modo non compatto nella corteccia: così come tali sistemi non sono suscettibili di lesioni specifiche (che richiedono l’esistenza di popolazioni neurali specializzate concentrate in precise aree anatomiche), plausibile pensare che l’attività di tali sistemi, proprio a causa della loro natura distibuita, non emerga in modo rilevante nelle scansioni di brain imaging: il risultato, in sede di sottrazione, è che attivazioni deboli e diffuse sono destinate a scomparire nelle immagini finali.

Nessuna di queste assunzioni – come abbiamo mostrato nel corso di questo capitolo – è  talmente solida da sottrarsi a possibili controesempi, e ciononostante la quasi totalità degli studi di brain imaging impiega il metodo sottrattivo come tecnica standard per lo studio dell’anatomia funzionale del cervello o dell’architettura funzionale di determinate abilità cognitive.

Le ragioni – che a tutta prima parrebbero squisitamente operative – discendono in realtà da due paradigmi teorici estremamente radicati nella prassi neuroscientifica, paradigmi teorici dei quali cercheremo di spiegare, in conclusione al presente capitolo, la natura e le conseguenze, spesso inevitabili, sul piano sperimentale, con particolare riferimento alle due strategie inferenziali indicate all’inizio del capitolo.

  Prima di concludere la nostra discussione sul metodo sottrattivo, considereremo alcune strategie di manipolazione dei dati neurofisiologici sviluppate di recente in alternativa alla sottrazione cognitiva. L’esempio più significativo è quello della “cognitive conjunction[49], che muove dalle seguenti considerazioni: mentre gli studi sottrattivi richiedono che due task differiscano soltanto del componente funzionale interessato, gli studi congiuntivi sono concepiti in modo tale da confrontare le differenze comuni a diverse coppie di task[50].

Uno schema può servire a illustrare l’idea:

 

Indichiamo con * il componente che ci interessa localizzare, con 1-5 altri componenti ipotetici di un task, con A (e C) il task di attivazione, e con B (e D) quello di controllo.

 Nella sottrazione cognitiva l’attività relativa al componente d’interesse (*) è ottenuta dalla sottrazione dell’attività cerebrale misurata durante il task di controllo B da quella misurata durante il task d’attivazione A. Nella congiunzione cognitiva, per contro, vengono considerate due coppie di task (A-B e C-D) tali che le loro differenze contengano entrambe il componente che cerchiamo. L’attivazione regionale associata al componente (*) è ottenuta dall’individuazione di aree di attivazione comuni a entrambe le sottrazioni indipendenti fra A e B e fra C e D.

 

I vantaggi di questo approccio sono molteplici.

In primo luogo non è più indispensabile costruire coppie di task che differiscano esclusivamente di una sola operazione. Nella congiunzione cognitiva, le coppie di task possono differire di un insieme di operazioni, fra cui quella del componente cognitivo che vogliamo studiare. Nell’approccio congiuntivo il componente è identificato testando contestualmente diverse ipotesi relative alle singole sottrazioni: l’unica restrizione che va rispettata è che fra le differenze di ogni coppia di task figuri almeno il componente cercato. Le conseguenze sono che non è necessario tener conto di tutti gli altri componenti non necessari del task di attivazione e che la scelta del task  di controllo può essere più flessibile e meno vincolante.

In secondo luogo, nella strategia congiuntiva non si richiede che i task siano strettamente seriali: come nel metodo di sottrazione gerarchico (si veda sopra), ogni task di attivazione ha il suo proprio controllo ed ogni sottrazione all’interno della congiunzione cognitiva risulta indipendente dall’altra.

  Infine, i componenti cognitivi non comuni a tutte le coppie di task possono anche presentare interazioni reciproche (fra il componente aggiunto ed i componenti condivisi), dal momento che la strategia congiuntiva non tiene conto dei loro effetti: la congiunzione cognitiva non dipende dall’assunzione di pura inserzione poiché non contempla l’effetto di eventuali interazioni, laddove la sottrazione richiede espressamente che tali interazioni non sussistano.

Ciò che accomuna sottrazione e congiunzione cognitiva, al di là di queste macroscopiche distinzioni,  è l’idea complessiva che il correlato neurale di processi cognitivi possa essere identificato segmentando questi ultimi in  sottocomponenti e confrontando fra loro le mappe di attivazione ottenute durante diversi tipi di attività. I limiti comuni ad entrambe le strategie derivano dal fatto che nessuna di esse può rendere conto degli effetti contestuali a livello fisiologico e deve necessariamente assumere che le popolazioni neurali responsabili delle attivazioni siano discernibili con precisione.

 


IV.4 - CONCEZIONI DI SFONDO ALLE NUOVE METODOLOGIE

 

Come abbiamo accennato, la fiducia nel ruolo euristico delle tecniche di manipolazione dei dati neurofisiologici, a fronte delle loro molteplici incoerenze e dei loro limiti epistemologici, dipende da due concezioni di fondo profondamente radicate nella prassi di indagine neuroscientifica.

Il primo di questi paradigmi è quello dell’organizzazione del cervello in aree di relativa specializzazione e autonomia funzionale. Le assunzioni che tanto nel metodo sottrattivo quanto in quello congiuntivo permettono di indagare la localizzabilità dei componenti cognitivi si muovono necessariamente all’interno di una prospettiva che considera la specializzazione delle singole aree in isolamento l’una dall’altra[51]. È cioè inevitabile, almeno ad un primo livello di indagine, che il cervello si consideri descrivibile come un sistema di aree discrete deputate a specifiche computazioni: senza una simile tassonomia di base sarebbero infatti irrealizzabili analisi più fini del ruolo sistematico di singole popolazioni neurali. Il peso teorico di questo paradigma nel caso del brain imaging diventa però problematico laddove deve rendere conto di fenomeni più complessi - rispetto a questa idealizzazione - come quelli che abbiamo indicato, cosicché inferire tout court da immagini sottrattive l’esistenza di un’area cerebrale  responsabile di una determinata operazione può portare a risultati scorretti e complessivamente incoerenti[52]. L’evidenza neuroscientifica mostra infatti che le stesse aree cerebrali possono realizzare funzioni diverse a seconda del task che le vede coinvolte. Inoltre, l’applicazione della sottrazione ai fini di isolare attivazioni locali può spesso aumentare, anziché ridurre il rapporto tra segnale e rumore, rapporto che dipende totalmente dal modello funzionale assunto a spiegazione del task: attivazioni diffuse o meno dispendiose dal punto di vista energetico – non per questo però meno rilevanti – possono scomparire completamente in seguito alla sottrazione, mentre attivazioni regionali che emergono per via sottrattiva possono dar luogo ad artefatti[53]. L’insieme di queste osservazioni invalida l’idea che il brain imaging, sulla scorta della sola metodologia sottrattiva, possa fornire autonomamente restrizioni sufficienti per costruire mappe funzionali del cervello o descrivere l’architettura di sistemi cognitivi.

Il secondo paradigma riguarda invece i modelli impiegati in sede neuroscientifica per spiegare il rapporto causale sussistente fra stimoli e attivazione[54]. La performance dei soggetti studiati in laboratorio è generalmente considerata come la somma di cause autonome che concorrono alla realizzazione del task: i modelli lineari  assolvono il compito di ridistribuire fra i vari componenti putativi l’effetto dell’attivazione cerebrale complessivamente rilevata[55]. In realtà, così come non siamo in grado di stabilire a priori il risultato complessivo della manipolazione di variabili cognitive in un task misurato cronometricamente, in sede di rilevamento dei tempi di reazione, allo stesso modo non possiamo prevedere quali tipi di sottrazione riescano effettivamente ad isolare singole operazioni dalle mappe di CBF o a restringere comunque in modo utile la classe di operazioni sensibili alle variabili considerate[56]. Un esempio sintomatico di questo problema è rappresentato dalla divergenze metodologiche su quale attività debba essere considerato “controllo” rilevante per l’analisi di uno stesso task[57]. Anche in questo caso il tipo di tecniche finalizzate a migliorare il rapporto fra segnale e rumore comporta un corto circuito epistemologico fra teoria e osservazione: se cioè l’assunzione di base del metodo sottrattivo vuole che ogni attivazione risultante sia scomponibile in una matrice di cause isolabili e gli strumenti di analisi lineare segregano, in accordo con tale assunzione, diversi componenti responsabili dell’attivazione complessiva, singoli componenti responsabili dell’effetto complessivo verranno automaticamente individuati, mentre sarà eliminato come “rumore” tutto ciò che non è contemplato nel modello d’analisi del task. Così come non abbiamo strumenti per isolare attraverso il solo brain imaging aree neurali specializzate nello svolgimento di precise computazioni, alla stessa stregua le tecniche sottrattive non forniscono da sole basi sufficienti per permettere di discernere che tipo di operazioni siano coinvolte in un particolare tipo di design sperimentale. Abbiamo qui tratteggiato i due grandi paradigmi di sfondo che sostengono l’uso delle strategie interpretative dei dati neurofisiologici e al tempo stesso ne spiegano le conseguenze, più o meno felici, sul piano sperimentale. Emerge da queste considerazioni che le strategie sottrattive rappresentano un metodo fruttuoso al fine di isolare sottocomponenti funzionali di un processo o aree specializzate nella loro realizzazione, ma al tempo stesso uno strumento suscettibile di compromettere la possibilità di individuare tanto gli uni quanto le altre. Non si vuole qui negare il valore euristico di un simile metodo, ma interrogarsi circa il tipo di confronto e le eventuali controprove cui i risultati che attraverso di esso si ottengono si prestino.

Di questo problema ci occuperemo nel capitolo conclusivo, nel quale si tratterà di valutare quale sia l’impatto di tale metodologia al momento della generalizzazione e del confronto delle teorie che attraverso di essa vengono costruite, di considerare cioè in che modo l’evidenza ottenuta attraverso brain imaging possa essere impiegata a conferma o a confutazione di modelli costruiti su basi metodologiche indipendenti.

 



[1] Pavlov, cit. in “Voir dans le cerveau”, La Recherche, 289 (juillet-août 1996).

[2] Per merito di David H. Ingvar e dei suoi collaboratori presso la clinica universitaria di Lund, in Svezia.

[3] Il metodo va sotto il nome di “Potenziali Evocati” (PE) - cfr. Gevins (1996).

[4] Per i dettagli del rilevamento si rimanda a Toga & Mazziotta (1996).

[5] In genere si tratta di un isotopo dell’ossigeno (15O), somministrato sottoforma di molecole d’acqua.

[6] Cfr. Cherry & Phelps (1996).

[7] Si parla in questo caso di block design e di state-related PET.

[8] Cfr. Toga & Mazziotta (1996).

[9] Il segnale rilevato dall’fMRI si definisce “blood-oxygen level dependent (BOLD) signal”.

[10] Non è forse un caso che i lavori pionieristici, dal punto di vista metodologico, sull’uso del brain imaging si siano immediatamente concentrati sulle aree da sempre considerate responsabili della codificazione del linguaggio – cfr. Posner, Petersen, Fox & Raichle (1988).

[11] Posner & Rothbart (1994), p.187.

[12] cfr. Friston (1998), p.796.

[13] cfr. Kosslyn (1999), p.1283: “the first class of questions focuses on how information processing is implemented  in the brain; these questions can be posed at a very coarse scale, focusing on the entire system that confers a particular ability, or at increasingly more specific scales, ultimately focusing on individual structures or processes. The second class of questions focuses on specifying when particular processes and structures were invoked and on how processing changes in different circumstances”. Cfr. inoltre Farah & Aguirre (1999), p.180 – nel caso del riconoscimento visivo di oggetti : “the first type of question is one of the most obviously addressed by neuroimaging studies, and concerns the location of the neural correlates of visual recognition. Specifically, can we identify areas of the brain that are active during the recognition of visually presented stimuli ? A second type of question that can be answered with functional neuroimaging concerns the functional architecture of visual recognition. Is there a single-purpose system for recognizing all types of visual objects or are there specialized subsystems for different classes of objects ?”.

[14] Kosslyn (1999), p.1283 – che pure distingue due classi rigorosamente indipendenti di domande, afferma la priorità logica della prima classe di domande sulla seconda: “One can answer such questions [cioè quelle del tipo (B)] only if one has provisional answers to at least some questions  of the first type. Once one has identified activation in a brain area with the operation of a structure or process, one can then ask in what circumstances such activation occurs”.

[15] cfr. Mazziotta (1996), p.391.

[16] Va tuttavia ricordato che, nel caso dell’fMRI, emergendo il segnale dai vasi sanguigni più larghi, la risoluzione “neurale” del metodo può risultare povera, malgrado l’alta risoluzione del segnale di risonanza magnetica.

[17] Una correlazione precisa fra dati funzionali e anatomici è possibile solo utilizzando contestualmente PET e immagini provenienti da risonanza magnetica sull’anatomia del cervello dello stesso soggetto. La connettività, aspetto fra i più importanti per la comprensione dell’organizzazione funzionale del cervello, comincia ad essere studiata anche nel brain imaging attraverso nuove strategie rilevamento dei dati – cfr. Tononi et al. (1998).

[18] Nel caso dell’fMRI, ciò è vero solo parzialmente dal momento che il confronto fra le immagini funzionali e le immagini anatomiche (ottenute tramite MRI standard sullo stesso soggetto) permettono di ricostruire le coordinate spaziali delle aree attivate – cfr. Wandell (1999), p.150.

[19] Per un’ulteriore analisi del problema della correlazione fra funzione e struttura e della generalizzazione dei risultati, si confronti Mazziotta (1996), p.313ss.

[20] Cfr. Mazziotta (1996), p.398.

[21] Si distingue a questo proposito una state related PET, da un event related fMRI. Mentre l’fMRI “rapido” è in grado di misurare autonomamente variazioni che occorrono in tempi dell’ordine del centinaio di millisecondi, la PET può fornire informazioni attendibili sull’attivazione “rapida” di aree cerebrali soltanto attraverso task designs estremamente accurati, strategie sottrattive per l’eliminazione del rumore (sulle quali torneremo oltre) e l’integrazione dei risultati con misurazioni provenienti da tecniche più precise sotto il profilo temporale, benché spazialmente molto più grossolane, come ad esempio quella dei potenziali evocati (EP). Cfr. Mazziotta (1996), p.800-801; Rosen, Buckner & Dale (1998), p.774-779.

[22] Cfr. Sergent (1994), p.222.

[23] Non vanno trascurati tuttavia problemi relativi alle cause specifiche delle variazioni vascolari rispetto all’attività neurale che le genera, come ad esempio il paradosso ai fini della misura che sussiste fra incremento metabolico e incremento del debito sanguigno. Una trattazione più dettagliata su questo problema si trova in  Wandell (1999), p.147.

[24] Cfr. Cela-Conde & Marty (1997), p.333

[25] Cfr. Wandell (1999), p. 148.

[26] Alternativamente, un notevole consumo regionale di energia rilevato da tecniche di brain imaging potrebbe essere dovuto alla minore efficienza del sistema in quella regione – si cfr. Fidelman, nel commentario a Posner & Raichle (1995), p.343.

[27] Cfr. Wandell (1999), p.148.

[28] Quello che, se vogliamo, permette di parlare di una psicofisica della visione è proprio il fatto che non sono propriamente a confronto una realtà “fisica” (lo stimolo visivo) ed una realtà “psichica” (l’attività neurale) fra loro incommensurabili, bensì delle entità in una certa misura omogenee, in grado di essere descritte da una teoria comune. Cfr. Wandell (1999), p.161 – a proposito della visione cromatica: “The initial transformations and most importantly the absorption of light by the visual photopigments within the L-, M- and S-cones are well understood. How the photopigments encode light and how the photopigments properties can be related to human color-matching is one of the most complete and satisfying analyses linking brain and behavior in all of neuroscience

[29] cfr. Posner & Abdullaev (1996), p.412.

[30] cfr. Von Eckardt Klein (1993), p.329: “neuroscientists cannot hope to explain in virtue of what (neural structures and processes) a person has a certain capacity, or how he or she exercises that capacity, unless they know fairly precisely what the capacity is, and determining the latter is not the sort of job that a neuroscientist qua neuroscientist typically undertakes”. Si confronti quanto osservato nel cap. III in merito alla distinzione fra mappe gerarchiche e modelli ibridi dell’organizzazione di un sistema.

[31] cfr. Stufflebeam & Bechtel (1997), p.S100-S01.

[32] Si pensi al paradigma delle associazioni/dissociazioni in sede neuropsicologica.

[33] Le difficoltà insite nell’idea della costruzione di modelli funzionali che siano al tempo stesso adeguati dal punto di vista comportamentale e “brain-friendly” si coglie facilmente nel contrasto fra l’affermazione di Bechtel (1997): “in understanding the brain we need to consider what the component systems in the brain themselves do, not impose an a priori task analysis drawn from the cognitive activities we do with our brain” – e la prassi normalmente seguita in sede neurocognitiva, dove i modelli ottenuti da studi comportamentali rappresentano il primo strumento di analisi dei sistemi cerebrali. Cfr. Posner & Abdullaev (1996), p.412; Sergent (1994), p.223-224.

[34] Cfr. Kosslyn (1994), p.29

[35] Cfr. Bechtel & Mundale (1999). Mundale (1997), p. 87ss. – mostra, al contrario, che diverse formulazioni dell’argomento funzionalista si sono basate su tassonomie comportamentali costruite ad hoc per invalidare l’ipotesi localizzazionista.

[36] Rimandiamo qui alla discussione riportata da Morton (1984), p.49ss. e già citata nella nostra sezione sulla neuropsicologia a proposito dell’inadeguatezza neurale dei componenti postulati dai modelli afasiologici. Un’ingenuità frequente è, come abbiamo visto, quella di ipotizzare l’esistenza di aree cerebrali specializzate nell’elaborazione di un solo tipo di informazione e di proiettare scorrettamente l’analisi funzionale di un processo sul piano strutturale.

[37] Per un introduzione all’idea di “operazione mentale” cfr. Posner & Abdullaev (1996), p.408ss.

[38]  cfr. Sternberg (1969): all’eredità di Donders e alla cronometria dei processi mentali è dedicato l’intero volume degli Acta Psychologica del 1969.

[39] cfr. Posner & Mitchell (1967); Posner (1978).

[40] Cfr. Posner & Raichle (1994), p.34.

[41] Cfr. Fodor (1983), p.37.

[42] Cfr. Van Orden & Paap (1997), S90: “No cognitive variable shows its effect identically in different task contexts (…) instead, every cognitive variable that might indicate a cognitive component reliably interacts with other variables, and the pattern of interaction change across tasks (effectively, a higher-order interaction with tasks!)”. La loro osservazione coinvolge in un’unica critica ciò che riteniamo essere articolabile in due aspetti diversi del problema. Cfr. anche Kosslyn (1999), p.1286-1287. Sui tipi di fattori che possono alterare la performance di processi cognitivi e di conseguenza la validità dei modelli impiegati per costruire test sperimentali, cfr. Kosslyn (1999), p.1291-1292.

[43] Cfr. Sidtis et al. (1999), p.495.

[44] Si noti, in questo senso, l’ingenuità dell’affermazione di Kosslyn (1999), p. 1285 – “In our view a good neuroimaging experiment hinges on comparing two tasks that are minimally different. In most cases, it is best if only a single aspect of the task is varied at a time; if more than one charachteristic is varied, the variables should be manipulated orthogonally (keeping everything else constant while manipulating each one)” La differenza minima dei due task e l’indipendenza reciproca delle variabili non sono proprietà testabili, ma assunzioni operative del ricercatore.

[45] Ciò avviene “sottraendo” letteralmente – pixel per pixel – dall’attività rilevata in ogni punto dell’immagine relativa al task manipolato l’attività misurata nel task di controllo.

[46] Si veda la distinzione fatta in questo stesso capitolo fra misura diretta e indiretta.

 

[47] Cfr. Sergent (1994), p.224.

[48] Cfr. Friston et al. (1996), p.97

[49] Price & Friston (1996).

[50] Kosslyn (1999), p.1285 – suggerisce che si debba evitare di studiare la funzione putativa di singole aree singolarmente prese e cercare piuttosto di concentrarsi su studi dell’intero sistema cerebrale che derivino da task differenti..

[51] Cfr. Sergent (1994), p.224.

[52] Caso emblematico la ricerca compiuta da Poeppel (1996), che ha passato in rassegna una serie di studi di PET volti ad isolare nell’emisfero cerebrale sinistro le aree responsabili del phonological processing. Il risultato della sua indagine indica ventidue diverse zone individuate su basi sottrattive, risultato che deve considerarsi più verosimilmente un indice dell’inappropriatezza dei modelli funzionali su cui la sottrazione viene condotta che dell’inesistenza di regioni specializzate per simili processi.

[53] Si pensi al caso celeberrimo della prosopagnosia e dell’esistenza di un’area neurale responsabile del riconoscimento di volti, cit. in Farah & Aguirre (1999), p. 184.

[54] Cfr. Van Orden & Paap (1997), S88ss.

[55] Per una definizione di “modello lineare” e un’analisi dei suoi limiti teorici cfr. Friston (1997).

[56] cfr. Posner & Abdullaev (1997), p.411: “Nothing guarantees that any subtraction will produce a subset of operations and the functions of each of them must be studied”.

[57] Si veda l’analitica ricognizione effettuata da Farah & Aguirre (1999), p.181 – del tipo di controlli utilizzato negli studi del riconoscimento visivo attraverso brain imaging, questione sulla quale avremo modo di tornare in seguito.