Tempo per la lettura: 8 minuti
Tecnologia e neuropsicologia

Il rapporto fra tecnologia e neuropsicologia

Per parlare del rapporto tra scienza e tecnologia all’interno della neuropsicologia e delle neuroscienze, dobbiamo chiamare in causa il concetto di tecnoscienza:

Con tecnoscienza intendiamo quell’intreccio di obiettivi, pratiche e metodologie che uniscono e sovrappongono per alcuni aspetti la ricerca scientifica e la prassi tecnologica. 

L’approccio tecnoscientifico alla ricerca prende avvio dalla seconda metà del XX secolo e ha raggiunto il suo apice nel XXI secolo. Un approccio techno scientifico all’indagine sul vivente, o sulla natura, e caratterizzata dal fatto che lo sviluppo tecnologico detta la linea e le condizioni, il tracciato di indagine per la ricerca scientifica.

Questo è particolarmente vero nel rapporto tra neuroscienze e tecnoscienza, perché la ricerca cervello-mente è strettamente dipendente dalla tecnologia impiegata nell’indagine scientifica. 

Le neuroscienze in questo senso sono un caso di paradigma tecno-scientifico contemporaneo. D’altra parte, la natura stessa dell’oggetto di indagine, cioè il cervello, un organo assolutamente complesso ma che non permette di associare con chiarezza e trasparenza le attività di base neurofisiologiche che il sistema nervoso con le manifestazioni più alte e complesse del comportamento, le emozioni, e la cognizione umana, non permettono, anzi precludono qualsiasi tipo di indagine diretta.

Lo sviluppo di sempre più raffinate e potenti tecnologie di indagine ha permesso man mano l’ampliamento degli orizzonti di ricerca. Questo però significa anche che dobbiamo figurarci un uso critico delle tecnologie nella ricerca, perché le tecnologie come diceva qualcuno sono delle teorie incarnate, racchiudono al loro interno e rendono manifeste in quanto dispositivi, determinati assunzioni teoriche di base che vengono apparentemente mascherate dal carattere neutro della tecnologia, ma che in realtà rimangono e permangono per esempio proprio nel modo in cui si visualizza un certo tipo di risultato.

Diversi strumenti di indagine ci consentono di accedere solo a specifici aspetti dell’attività nervosa cerebrale, e in alcun modo è possibile generalizzare il risultato o il dato ottenuto da un singolo strumento di indagine a livello generale se non a costo di astrazioni o calcoli matematici e statistici basati sulla probabilità. 

Tecniche elettrofisiologiche

La pletora di strumenti di indagine in questo ambito è immensa, l’elettrofisiologia è stata, è, e continuerà ad essere nell’ambito della ricerca sul cervello, sul comportamento e sulla cognizione.

Elettroencefalogramma

Partiamo dalla storia e dall’opera di Hans Berger, uno psichiatra tedesco, che dalla fine del XIX secolo lavorò presso la clinica psichiatrica di Jena, famosa per essere retta dal grande psichiatra Ludwig Wagner e che nel 1924 registra il primo tracciato encefalografico umano. È Hans Berger in occasione di quella pubblicazione a dare il nome a questa nuova tecnica, a questo nuovo risultato sperimentale: l’elettroencefalogramma.

Ma farebbe sorridere molti di noi il sapere che nel momento in cui Berger presenta i suoi risultati alla comunità psichiatrica e neurologica del suo tempo viene essenzialmente deriso, perché è difficile comprendere, per una tradizione che ha cercato nell’osservazione e nella descrizione naturalistica del comportamento il valore di questo tracciato che va ad definire, descrivere l’attività elettrica generale dell’encefalo nel momento in cui il soggetto esegue specifiche funzioni.

L’Elettroencefalografia registra i potenziali elettrici post-sinaptici prodotti dalla corteccia cerebrale, per ottenere questo risultato vengono applicate allo scalpo dai 16 ai 24 elettrodi in maniera tale che si possa ottenere una mappatura generale e globale dell’attività elettro fisiologica sottostante.

Ovviamente la necessità di standardizzazione delle misurazioni ha portato alla creazione di standard di applicazione degli elettrodi, come ad esempio la configurazione 10-20, oggi assolutamente lo standard di riferimento sia nella ricerca clinica che nella ricerca di base.

Nell’immagine potete vedere il primo tracciato encefalo ottenuto da Berger nel 1924 nella pubblicazione che diede il nome a questo nuovo reperto sperimentale: l’encefalogramma.

Elettro-corico-grafia

Ideata da Wilder Penfield ed Herbert Jasper, due neurochirurghi operanti presso il Montreal Neurological Institute del Canada. Penfield è Jasper idearono l’elettro-corico-grafia all’interno della cosiddetta Montreal Procedure, un protocollo chirurgico per gli epilettici che fu destinato a cambiare la storia clinica, la storia nosografica di questo disturbo.

L’elettro-corico-grafia si basa sull’applicazione diretta al di sotto dello scalpo, i pazienti per l’appunto che si trovano in una situazione, in condizioni di dover ricevere un trattamento chirurgico per l’appunto per disturbi neurologici gravi, che possono essere le crisi di epilessia.

Si applica direttamente alla corteccia dei piccoli elettrodi che cercano di registrare nello specifico l’attività elettrica di determinate aree, e attraverso questo tipo di indagine che Penfield e Jasper si ritrovano a poter definire la prima mappa delle funzioni sensori-motoria dell’essere umano, il cosiddetto homunculus.

L’homunculus è quella rappresentazione corticale dell’apparato sensoriale dell’uomo ed dell’apparato motorio che dà vita a quella simpatico.  Un buffo omuncolo per l’appunto che va a rappresentare in maniera ben precisa la quantità di aree corticali che il nostro cervello dedica alla rappresentazione, al controllo delle diverse parti del corpo.

Come noto l’homunculus nell’essere umano possiede delle grandi mani, essendo le mani l’organo principale della conoscenza e manipolazione del mondo per la nostra specie, ma anche una sovra rappresentazione presente per quanto riguarda gli organi di senso o altre particolari aree motorie che hanno bisogno di una vasta area di elaborazione corticale come ad esempio la bocca, la lingua, tutti quanti i muscoli palatali, gli occhi e le orecchie. 

L’elettro-cortico-grafia raccoglie dei segnali composti da potenziali post-sinaptici che vengono catturati in sincrono. I potenziali vengono registrati come abbiamo detto direttamente dalla superficie corticale, esposta chirurgicamente e ovviamente all’interno della ricerca e della sperimentazione animale è possibile operare sperimentalmente per ottenere risultati analoghi, spesso per motivi anche di comparazione con le scoperte le teorie, le ipotesi che sono state formulate sull’homo sapiens.

Non avendo l’ostacolo del cranio, delle meningi, dello scalpo, l’elettro-corico-grafia a una risoluzione spaziale estremamente più alta dell’elettroencefalografia, parliamo di circa 1 cm di risoluzione spaziale, e comunque una risoluzione temporale molto stretta: di 5 ms. 

L’avvento del neuroimaging

Il vero problema di indagine anche per gli osservatori più attenti, anche per gli studiosi più rigorosi, fu quello di dover aspettare la morte del paziente per poter validare un’ipotesi sul rapporto tra cervello, comportamento e cognizione che si è potuto osservare nel corso della vita del paziente.

A tale riguardo possiamo citare come esempio il caso di Broca e del suo paziente Tan, il paziente affetto da afasia motoria che diede a Broca la possibilità di portare all’Accademia delle scienze di Parigi il caso provato di una correlazione tra una lesione cerebrale nella terza circonvoluzione frontale del loro sinistro e la perdita di una capacità, cioè la capacità di articolare il linguaggio.

Ovviamente Broca aveva osservato questo tipo di comportamento patologico nel suo paziente Tan tutta quanta la vita, ma l’unico momento in cui ebbe la possibilità di poter verificare se effettivamente l’ipotesi di una correlazione tra una lesione cerebrale e la perdita di una facoltà fu quello della morte di Tan, perché solo in quel momento fu possibile per lui aprire letteralmente la testa e controllare, osservare, localizzare una funzione.

Il neuroimaging cambia le carte in tavola, perché con questo termine intendiamo tutti gli strumenti tecnologici e le procedure sperimentali attraverso cui ci è possibile visualizzare l’attività cerebrale in vivo, nel momento in cui il paziente è vivo, vegeto e anzi esegue anche magari delle specifiche funzioni.

A questo proposito è importante operare una distinzione concettuale:

  • il neuroimaging morfologico, è dedicato alla ricerca, indagine sulla struttura del sistema nervoso, sulla forma del sistema nervoso
  • il neuroimaging funzionale si occupa, su un livello più alto del livello della singola cellula, ma addirittura dell’intero organo o specifiche aree, si occupa di indagare quali sono le attività fisiologiche correlate a specifiche funzioni cerebrali

La tomografia computerizzata

All’epoca chiamata anche tomografia assiale computerizzata, perché ci si poteva limitare soltanto a uno specifico asse della prospettiva di osservazione sul sistema nervoso. 

La tomografia computerizzata è senza dubbio la più diffusa tecnica di neuroimaging strutturale, in particolare, essa utilizza come sorgente energetica i raggi X, per le loro specifiche proprietà di penetrazione nei tessuti biologici, e in seguito a un’attenta e complessa elaborazione dei dati ottenuti in risposta all’emissione di raggiri X attraverso un computer, permette di avere una attenta, precisa e dettagliata mappa di tutte le strutture morfologiche che il sistema nervoso in condizioni fisiologiche e patologiche.

In particolare, la tomografia computerizzata è stata per anni il mezzo di elezione per l’indagine di tutti le lesioni vascolari e le lesioni oncologiche, le patologie oncologiche del sistema nervoso. 

La tomografia computerizzata fu ideata, pensata e teorizzata da Alan McLeod Cormack, un fisico sudafricano naturalizzato statunitense che nel 1964 pubblica uno studio teorico sulle possibilità diagnostiche dei raggi X al di là della semplice radiografia.

Nel 1979 Alan McLeod Cormack fu insignito del premio nobel per la fisiologia e la medicina insieme a Godfrey Hounsfield proprio per il suo lavoro sulla tomografia computerizzata. Eppure, proprio come Berger all’inizio il lavoro di Alan McLeod Cormack fu giudicato lavoro estremamente fantasioso, futile e puerile nelle parole di alcuni commentatori dell’epoca.

Come dicevamo prima, la tomografia computerizzata è stata il metodo di elezione per la rilevazione ed una diagnosi precisa di specifiche patologie, tra cui quelle cerebrovascolari e quelle neuro oncologiche, la causa di questo è la risoluzione spaziale assolutamente elevata che la tomografia computerizzata può offrire all’occhio dello sperimentatore o del clinico. 

Insieme alla tomografia però negli ultimi anni abbiamo assistito ad una vera e propria esplosione di un’altra tecnica di neuroimaging, questa volta una tecnica di neuroimaging funzionale.

fRMI – risonanza magnetica funzionale per immagini

Anche chiamata Functional Magnetic Resounance Image, la più diffusa tecnica di neuroimaging funzionale utilizzata tanto all’interno della ricerca clinica quanto nella ricerca di base.

La risonanza magnetica funzionale misura in particolare un segnale detto BOLD (Blood Oxygenetion Level Dependent) vale a dire che esso registra la variazione di ossigeno, in particolare di emoglobina ossigenata e de-ossigenata nel sangue presente nel sistema nervoso in seguito all’attività neuronale.

In altre parole, la risonanza magnetica funzionale misura la variazione di ossigeno che si ritiene conseguente all’attivazione di una specifica area per l’esecuzione di uno specifico compito.

La risonanza magnetica funzionale ha una storia estremamente recente, in particolare, dobbiamo al brillante estro di un biofisico interessato non soltanto alle neuroscienze, ma in generale ai problemi di neurofisiologia che potevano essere affrontati con nuove strumentazioni, il cui nome è Jack Belliveau, statunitense.

Jack Belliveau nel 1991, dopo una rapida presentazione anch’essa passata un po’ in sordina a un locale convegno di scienziati ed ingegneri, presentò questa nuova tecnica sulla rivista Science. Ci vollero diversi anni affinché la tecnica di Jack Belliveau ricevette l’accoglienza che meritava, nello specifico ad opera Quong nel 1996, si incominciò a standardizzare un metodo di utilizzo della risonanza medica funzionale all’interno della comunità scientifica.

Risonanza magnetica funzionale per immagini presenta pur tuttavia diverse criticità che valgono la pena di essere evidenziate e di essere discusse. 

In primis bisogna ricordare:

  • la risonanza magnetica funzionale deduce l’attività neuronale dai cambiamenti del livello di ossigenazione del sangue, ma rimane di difficile determinazione la relazione spazio-temporale tra segnale e strutture
  • le immagini ottenute dalle tecniche di risonanza magnetica funzionale necessitano di una forte imponente costruzione statistica del dato, basato su dei modelli probabilistici.
  • nel momento in cui andiamo a costruire l’immagine del cervello acceso che vediamo comunemente sulle riviste scientifiche, ma anche sulla stampa generalizzata, non ci troviamo di fronte a una fotografia di un’attivazione, ma ci troviamo di fronte a una ricostruzione effettuata attraverso metodi statistici che va a determinare con una certa probabilità l’attivazione preminente di un’area cerebrale nello svolgimento di una funzione rispetto alle altre

Occorre ricordare che un cervello non può mai essere spento in alcune parti e acceso in altre parti, perché un cervello è spento, cioè non ha attività elettrofisiologiche soltanto nel momento in cui è morto.

Rimangono quindi dei problemi epistemologici profondi nella risonanza magnetica funzionale, perché le neuroimmagini hanno oltre al dato che offrono all’indagine critica, e alla riflessione critica degli sperimentatori, hanno una particolare forte valenza simbolica, in particolare quelle che sono ottenute attraverso la risonanza magnetica funzionale per immagini.

fMRI, è importante, dunque, considerare il rischio di quello che Weisberg e colleghi nel 2008 hanno chiamato “il fascino seducente delle neuro immagini”. 

Abbiamo assistito nel corso soprattutto nell’ultimo ventennio a un continuo susseguirsi di articoli, riflessioni, comunicati stampa, in cui si sosteneva di aver trovato l’area di attivazione di una certa funzione, o la base neurobiologica di un comportamento, anche un costrutto complesso come può essere l’amore, o come può essere l’istinto parentale. In qualche modo questo ci riporta per l’appunto a quella frenologia che alla fine del Settecento Gall aveva proposto cercando di mettere in correlazione la prominenza di una certa parte del cranio con l’esibizione, la manifestazione di specifiche capacità, di specifiche caratteristiche della persona.

È importante ricordare che la potenza della fMRI come strumento diagnostico e come strumento di indagine sperimentale, è sempre strettamente da subordinare ad una concezione critica e complessiva dell’attività cerebrale che non può essere limitata all’attivazione di una specifica area, in quanto il cervello è un sistema dotato di un’architettura aperta ed estremamente comunicante, spesso in maniera anche ridondante al suo stesso interno. 

In copertina Foto di NASA su Unsplash

fonte uninettuno

Pubblicato il
3 Marzo 2023

Potrebbe interessarti