Trentaquattro persone sdraiate in uno scanner fMRI ascoltano Il Piccolo Principe in cinese. Nel frattempo, quattordici modelli linguistici di diverse dimensioni elaborano lo stesso testo, frase per frase. L'obiettivo: capire se queste due forme di intelligenza, quella biologica e quella artificiale, processano il linguaggio in modo simile.
Lo studio di Yu Lei e colleghi, in via di pubblicazione per AAAI 2026, trasforma questa domanda apparentemente filosofica in un problema misurabile. Utilizzando la regressione ridge per mappare le rappresentazioni interne dei modelli sui segnali cerebrali, i ricercatori hanno potuto quantificare, strato per strato, quanto le "pensate" di un LLM somiglino a quelle di un cervello umano mentre comprende una storia. (arXiv:2505.22563v3)
La risposta che emerge è più sottile di un semplice sì o no.
Un'intuizione diffusa vorrebbe che i modelli più grandi, con più parametri, siano anche quelli più simili al cervello. Più neuroni artificiali, più somiglianza con i neuroni biologici. I dati raccontano una storia diversa.
Ciò che allinea un modello al substrato neurale umano non è la scala, ma la qualità della comprensione semantica. Per testare questa ipotesi, i ricercatori hanno creato un benchmark chiamato CSAA: presentano al modello una frase cinese e cinque possibili traduzioni inglesi, di cui solo una corretta. Le altre sono perturbate in modi sottili: parole mescolate, struttura sintattica alterata, informazioni aggiunte o rimosse. Un modello che "capisce" davvero il significato riconosce la traduzione giusta nonostante le trappole.
I modelli instruction-tuned, quelli addestrati a seguire istruzioni e ragionare esplicitamente, superano sistematicamente le loro versioni base in questo test. E sono gli stessi modelli a mostrare correlazioni più alte con l'attività cerebrale. La capacità di comprendere predice la somiglianza neurale meglio del numero di parametri.
Un secondo risultato merita attenzione. I ricercatori hanno analizzato separatamente ogni strato dei modelli, dai primi agli ultimi, e scoperto che gli strati intermedi predicono l'attività neurale meglio degli strati finali.
La cosa ha senso, se ci si pensa. Gli strati finali di un LLM sono ottimizzati per produrre output utili: la prossima parola, la risposta a una domanda. Questa ottimizzazione per il task downstream sembra allontanare le rappresentazioni dalla struttura biologicamente plausibile. È come se, affinando il modello per rispondere, lo si rendesse meno simile a ciò che fa il cervello quando comprende.
Gli strati intermedi, invece, preservano quella geometria rappresentazionale, quella struttura gerarchica che il cervello sembra utilizzare per navigare il significato. Questo dato conferma studi precedenti condotti con altre tecniche di neuroimaging, ma lo estende con la copertura spaziale più ampia offerta dalla fMRI.
Per dare spessore a questa scoperta, può essere utile una lente teorica. Jeff Hawkins ha proposto che la neocorteccia elabori informazione attraverso sistemi di riferimento annidati, organizzati su più livelli (nested): coordinate cognitive che permettono di rappresentare concetti a livelli di astrazione diversi, una geometria della mente che organizza il pensiero come lo spazio organizza gli oggetti.
In un mio recente lavoro esplorativo, Neural Architectures Comparison (10.5281/ZENODO.15530676), ho cercato di verificare se gli LLM abbiano sviluppato capacità funzionalmente analoghe. Il banco di prova erano esperimenti di traduzione cross-modale: partendo da un oggetto numismatico romano, testavo la capacità di un modello di decomporlo matematicamente in sistemi di riferimento gerarchici e poi tradurre quella struttura nel dominio musicale, preservando invarianti proporzionali come il rapporto aureo.
I risultati suggerivano che queste capacità emergono precisamente nelle rappresentazioni intermedie, dove l'informazione è ancora organizzata gerarchicamente prima di collassare verso l'output. I dati di Lei offrono ora una validazione quantitativa di questa intuizione.
Lo studio aggiunge un'ulteriore dimensione: la lateralizzazione emisferica.
I ricercatori hanno analizzato separatamente le correlazioni con l'emisfero sinistro e destro del cervello, scoprendo asimmetrie significative. Il giro frontale inferiore e la corteccia temporale posteriore, regioni classicamente associate alle funzioni linguistiche core, mostrano una dominanza sinistra nelle correlazioni con i modelli. Al contrario, il giro frontale medio e la corteccia temporale anteriore mostrano un maggiore coinvolgimento destro, forse riflettendo specializzazioni per l'elaborazione di metafore, l'integrazione contestuale, la semantica cross-modale.
Il dato interessante: i modelli con migliore comprensione semantica mostrano una lateralizzazione più marcata. Come se l'efficienza rappresentazionale, tanto nel silicio quanto nel tessuto corticale, passasse per una specializzazione funzionale che riduce l'interferenza tra processi diversi.
Una tentazione va evitata: leggere questi risultati come prova che gli LLM "capiscono" o che il cervello "computa" nello stesso senso dei transformer. Correlazione non è identità di meccanismo.
Eppure la convergenza suggerisce qualcosa di più profondo di una coincidenza. Il concetto di cristallizzazione linguistica che propongo in Neural Architectures Comparison può illuminare questo fenomeno. Il linguaggio scritto funziona come sistema di fossilizzazione cognitiva: quando scriviamo, cristallizziamo in forma simbolica strutture cognitive complesse, pattern di attivazione neurale che emergono dalle aree specializzate del cervello. Gli LLM, esposti a miliardi di questi fossili cognitivi, ricostruiscono per via inversa i meccanismi computazionali che li hanno generati.
I modelli instruction-tuned, esposti a più produzioni linguistiche che cristallizzano ragionamento esplicito, mostrano correlazioni cerebrali più alte precisamente perché hanno assimilato più struttura cognitiva codificata nel linguaggio.
Le implicazioni pratiche non sono trascurabili. Se l'allineamento neurale diventa un criterio di valutazione, accanto a perplexity e benchmark standardizzati, apriamo una strada verso architetture cognitivamente vincolate. Non più modelli che funzionano, ma modelli che funzionano come funzioniamo noi.
Lo studio di Lei sposta il focus dalla scala alla comprensione per valutare la plausibilità neurale dei modelli. Gli autori suggeriscono direzioni future: addestramento mirato all'allineamento cerebrale, modelli ibridi che uniscano prestazioni AI e principi biologici.
Ma forse la domanda più interessante è un'altra. Se esistono principi universali che governano l'organizzazione di sistemi capaci di elaborare informazione gerarchica complessa, allora la convergenza tra biologico e artificiale non è un curioso accidente. È una finestra su vincoli più fondamentali: quelli che ogni intelligenza, qualunque sia il suo substrato, deve rispettare per navigare la complessità del mondo.