Tempo per la lettura: 7 minuti
Le neuroscienze computazionali

L’avvento dei paradigmi computazionali

Il termine neuroscienze computazionali è stato introdotto da Eric Schwartz organizzatore dell’omonima conferenza nel 1985 a Carmel in California.

Il profilo di Eric Schwartz è esattamente il profilo di scienziato e nuovo neuroscienziato che si è andato a creare, sviluppare nella seconda metà del Novecento negli Stati Uniti d’America come precedentemente accennato all’interno del progetto del Neuroscience Research Programm che puntava all’unione di expertise provenienti dal mondo dell’ingegneria elettronica, della biofisica e della biochimica con le più tradizionali ricerche nel campo della neurofisiologia e della neuropsichiatria.

Sotto questo punto di vista Eric Schwartz rappresenta l’esponente perfetto di questo tipo di paradigma e di approccio alla ricerca neuro scientifica. Eric Schwartz nasce biofisico e biochimico lavorando nel laboratorio di Edward Roy neurofisiologia, e diventerà più avanti professore di ingegneria elettronica applicata alle neuroscienze computazionali, arrivando ad essere il primo sviluppatore ingegnere e progettista di un veicolo mosso interamente da un’intelligenza artificiale che simula il cervello dei mammiferi.

Le neuroscienze computazionali utilizzano dei modelli matematici ed un’analisi teorica quantitativa per studiare il cervello.

Nelle parole di Eric Schwartz, di Kock, di Sejnowski e Churchland cioè i maggiori esponenti di questa corrente:

L’espressione neuroscienze computazionali riflette la possibilità di generare teorie sulle funzioni cerebrali in termini di proprietà di elaborazione delle informazioni delle strutture che compongono i sistemi nervosi. L’espressione connotata anche il potenziale di progresso teorico nei progetti di cooperazione intrapresi da neurobiologi e informatici.

I presupposti epistemologici al cuore delle neuroscienze computazionali si rivolgono essenzialmente alla centralità del concetto operativo di “modello”.

Questi modelli del cervello immaginati e implementati sotto forma di modelli matematici, sono eventualmente poi applicabili a dei prodotti tecnologici, hanno una fortissima ispirazione biologica, facendo riferimento diretto, in maniera analogica alle strutture morfologiche e funzionali del sistema nervoso, in particolare del sistema nervoso centrale nei mammiferi. 

Per molti sensi, le neuroscienze computazionali superano definitivamente quel paradigma della scienza cognitiva classica che viene ricordata con il nome di Good Old-Fashioned Artificial Intelligence (GOFAI): era quell’intelligenza artificiale che andava a simulare le funzioni cognitive dell’essere umano e degli altri animali cercando di emulare esattamente i risultati e i processi dietro il conseguimento dei risultati, che potevano essere in qualche modo interpretati dall’analisi psicologica classica in termini di vere e proprie funzioni mentali.

Rivolgendo la propria attenzione allo sviluppo di modelli biologicamente ispirati, le neuroscienze computazionali cercavano di superare i limiti intrinseci della vecchia intelligenza artificiale cercando di raggiungere un migliore grado di simulazione e quindi un miglior grado di efficienza di queste intelligenze artificiali puntando a rispecchiare le strutture biologiche soggiacenti ai processi cognitivi.

Inoltre, un altro presupposto epistemologico forte delle neuroscienze computazionali sorte a partire dalla metà degli anni 80 era quella legata all’integrazione di prospettive bottom-up e top-down. 

Ricordiamo che prospettiva bottom-up indica che la prospettiva di ricerca mira alle funzioni cognitive, ma parte dalle funzioni neurofisiologiche soggiacenti alla cognizione che a partire dagli elementi più bassi, gli elementi più atomici che costituiscono i pezzi di base dei processi cognitivi vanno a costituire un panorama generale e globale di una specifica funzione, di una specifica macroarea di facoltà cognitiva.

Dall’altra parte l’approccio top-down parte da una considerazione di ordine generale spesso anche dall’esperienza fenomenica del soggetto per andare poi a discernere quali sono le costituenti che rendono possibile un determinato tipo di cognizione.

Esistono tre tipi di modelli che in qualche modo vanno anche a configurare tre diversi tipi di approcci all’interno delle neuroscienze computazionali:

  • i modelli descrittivi che non sono altro che una caratterizzazione quantitativa in termini matematici, in termini formali di esperimenti nel campo della neurobiologia
  • i modelli normativi che vogliono essere delle spiegazioni funzionali dei processi che avvengono all’interno del sistema nervoso e della cognizione umana
  • i modelli meccanicistici, forse i più importanti dal punto di vista di questo nuovo paradigma che cercano di ispirarsi, imitare quel realismo neurobiologico che viene considerato la fondazione della reale possibilità, una possibilità efficiente ed esaustiva, di simulazione delle capacità cognitive

Simulare il cervello: lo Human Brain Project

Gli anni ’10 del XXI secolo si caratterizzano per l’avvio di diversi progetti di Big Science sul cervello.

Con l’espressione di Big Science intendiamo dei grandi progetti cooperativi in parte finanziati da grandi istituzioni statali o sovrannazionali, in parte finanziati da big player nell’industria farmaceutica, dell’industria elettronica, ma in generale della ricerca scientifica applicata che per un lungo periodo di tempo si è concentrana su un unico approccio e su un unico obiettivo nella speranza di riuscire in qualche modo a effettuare un completo cambio di regole, di prospettive, una sorta di rivoluzione epistemologica all’interno di un campo di ricerca.

In particolare, a partire dagli anni ’10 la Big Science dedicata al cervello e alle neuroscienze adotta un approccio simulazionistico e tecno-scientifico praticamente in ogni paese che ha deciso di portare avanti progetti di questo tipo.

Ricordiamo in particolare:

  • la Brain Iniziative degli Stati Uniti, ovvero la Brain Research Advancing Innovative Neuro-Technology – un avanzamento delle conoscenze sul cervello attraverso dei progressi innovativi nelle neurotecnologie
  • il Brain Mind Project giapponese
  • il China Brain Project

Tutti grandi progetti di ricerca con una durata almeno quinquennale dedicata a raggiungere un obiettivo esplicito: la capacità di simulare almeno in parte le funzioni cerebrali. 

Nel 2013 la commissione europea diede il via a due grandi progetti di Big Science:

  • da un lato il progetto di ricerca sul grafene
  • dall’altro lato lo Human Brain Project, considerato un progetto flagship della Commissione Europea (avviato nel 2013) che doveva fare da faro per l’intera ricerca scientifica, in particolare in ambito biomedico per i paesi appartenenti alla comunità europea. Il budget è preventivato per la realizzazione di questo progetto era di 1 milione di euro in 10 anni ripartiti in maniera più o meno equa fra investimenti pubblici in ricerca e sviluppo e in investimenti privati

I coordinatori di questo progetto sono Henry Markram e Karlheinz Meyer due importanti neuroscienziati attivi da moltissimo tempo proprio all’interno di quel paradigma delle neuroscienze computazionali che a partire dagli anni ’80 aveva saputo in qualche modo estendere la sua egemonia culturale all’interno di diversi laboratori di ricerca. 

Lo Human Brain Project, nelle parole del suo più grande fautore, ideatore Markram, dovrebbe porre le basi tecniche per un nuovo modello di ricerca sul cervello basato sulle Information and Communication Thecnologies ICT guidando l’integrazione tra dati, conoscenze di diverse discipline e catalizzando uno sforzo comunitario per raggiungere una nuova comprensione del cervello, nuovi trattamenti per le malattie cerebrali e nuove tecnologie informatiche ispirate al cervello.

Appare chiaro dunque, come all’interno di questo progetto, nel suo respiro teorico, ma anche in termini di ricadute applicative si va in qualche modo a concretizzare l’apice di quel filone di ricerca ed indagine che voleva attraverso un utilizzo diretto, un impiego diretto della tecnoscienza più avanzata andare a comprendere attraverso un’operazione di Reverse Engineering (ingegneria inversa) il sistema nervoso centrale, in particolare gli uomini, ma anchemaltri mammiferi.

Lo Human Brain Project fece seguito ad un altro grande progetto, forse il primo progetto di Big Science di neuroscienza informatica: il Blue Brain Project.

Una partnership tecnologica tra il laboratorio di Markram in Israele e IBM che dotò il laboratorio di Markram, per cercare di operare la simulazione della corteccia dei topi, di una grandissima e potentissima infrastruttura tecnologica costituita dai computer Blue Gene, dei mega computer di ultimissima generazione la cui capacità di calcolo avrebbe dovuto permettere la possibilità di simulare la complessità strutturale e funzionale della corteccia cerebrale.

Il 7 luglio del 2014 in 600 scienziati firmarono una lettera aperta, pubblicata sul sito neurofuture.eu a cui presto si aggiunsero altre migliaia di studiosi del vecchio continente per denunciare le criticità dello Human Brain Project, in primo luogo, in termini di politica della ricerca, perché che così facendo le neuroscienze che non riposavano su un approccio legato al paradigma delle neuroscienze computazionali, si ritrovavano da un giorno all’altro senza fondi, e senza la possibilità di portare avanti le loro ricerche, anche laboratori molto importanti che nel corso del decennio precedente, l’ultimo decennio del XX secolo, avevano raggiunto dei risultati molto importanti rispetto alla nostra comprensione del sistema nervoso e del suo funzionamento in relazione alle funzioni cognitive.

Vi era inoltre un’altra criticità molto forte portata all’attenzione da parte dei firmatari della lettera Neurofuture, faceva notare come ci fosse una impossibilità di portare avanti un progetto con così tanta incoerenza e possibilità reale di raggiungere dei risultati nel momento in cui i modelli che venivano utilizzati erano dei modelli necessariamente parziali.

Prospettive e limiti delle neuroscienze computazionali

Innanzitutto, dal punto di vista delle prospettive possiamo osservare che le neuroscienze computazionali hanno inaugurato e in qualche modo consolidato due filoni di ricerca che sono oggi fondamentali all’interno non soltanto della ricerca neuroscientifica in senso stretto, ma anche forse e soprattutto per quanto riguarda le possibilità di riapplicare in campo tecnologico e biomedico i risultati delle neuroscienze computazionali.

Il primo è ovviamente lo sviluppo tecnologico di intelligenze artificiali (IA) basate sullo studio del cervello hanno condotto oggi a una nuovissima generazione di computer neuromorfici la cui struttura di calcolo vuole in qualche modo emulare, simulare, imitare il sistema nervoso dei mammiferi, e in particolare la maggior parte delle intelligenze artificiali che oggi è utilizzata all’interno di applicazioni militari, belliche e logistiche, riposa esattamente su questo tipo di architettura, un vero e proprio superamento del architettura di von Noimann, del classico calcolatore, per l’appunto nella speranza che simulando, imitando e rifacendosi alle capacità di calcolo del sistema nervoso, si possa superare quel vincolo ingegneristico della miniaturizzazione dei microchip: creare computer più potenti prendendo come modello il computer con capacità di calcolo più grande, versatile che esista in natura, cioè quello del sistema nervoso centrale di homo sapiens.

L’altro filone di ricerca assolutamente fondamentale nato dalle neuroscienze computazionali e quello della psichiatria computazionale, una psichiatria che vuole in qualche modo colmare uno iato:

  • andando per l’appunto a integrare degli approcci che possono essere considerati bottom-up e top-down da un lato
  • dall’altro possono anche essere considerati polarizzati su un asse che vede ai suoi estremi l’approccio biologico e riduzionistico alla malattia mentale e l’approccio più psicologico

Le neuroscienze computazionali entrano a gamba tesa all’interno della ricerca psichiatrica cercando per l’appunto di superare questo iato, di colmare questo tipo di gap.

Il problema con le neuroscienze computazionali da un punto di vista storico ed epistemologico, sono tuttavia legate proprio a questa forte volontà di operare un riduzionismo forte:

  • sia dal punto di vista dei modelli attraverso cui interpretiamo la struttura e il funzionamento del cervello
  • sia del metodo di ricerca come abbiamo visto anche con delle importanti ricadute in termini di politiche della ricerca

Le neuroscienze computazionali danno luogo ad una teoria dell’identità e un fisicalismo ristretto, vale a dire postulano una fortissima identità tra il cervello e la mente, fatto riducendo tutto quello che è il mentale a un semplice funzionamento della componente fisica che soggiace alla cognizione.

La mente diventa il cervello e solo ed esclusivamente il cervello, in qualche modo si torna a sviluppare un riduzionismo che assume una matrice neuro-centrista, in cui la cognizione può essere spiegata in maniera necessaria e sufficiente esclusivamente dal funzionamento del sistema nervoso.

Vi è una forte critica rispetto alla validità di tali modelli, se è vero che l’idea di simulare le strutture e le funzioni del sistema nervoso possiede senza dubbio una forte valenza euristica, perché si fa a meno di molte delle sovrastrutture ideologiche o scientifiche anche che avevano guidato la ricerca di neuroscienze fino agli anni ’80, è altrettanto vero che i modelli che vengono inseriti, che vengono dati da mangiare alla macchina per poter operare la simulazione, sono dei modelli ancora fortemente parziali.

In particolare, uno degli esempi classici che si fece in particolare come critica allo Human Brain Project fu quello del mancato ruolo di una parte importante della costituzione cellulare del sistema nervoso, cioè le cellule gliali che erano fondamentalmente assenti all’interno della prospettiva simulazionistica dello Human Brain Project, nonostante si sapesse benissimo da diversi decenni, all’interno della comunità neuroscientifica, che le cellule gliali svolgono un ruolo fondamentale nella cognizione per esempio garantendo il corretto funzionamento del metabolismo dei neuroni.

Nonostante i tentativi di integrazione, la conoscenza ancora lacunosa di alcuni aspetti della neurofisiologia, rende ancora difficile la costruzione di teorie normative che siano ecologicamente valide, cioè che rispettino la realtà della cognizione per come essa si manifesta e si espleta in natura.

In copertina foto di Resource Database su Unsplash

fonte uninettuno

Pubblicato il
3 Marzo 2023

Potrebbe interessarti