Chi progetta sistemi di apprendimento automatico conosce bene il prediction error: la discrepanza tra ciò che il modello prevede e ciò che il mondo restituisce. Il sistema fa una previsione, il mondo risponde, la differenza guida l'apprendimento. Più grande l'errore, più forte la correzione.
I neuroni dopaminergici nel cervello umano fanno esattamente la stessa cosa. Si attivano quando la ricompensa supera le aspettative, tacciono quando corrisponde, si deprimono quando delude. La convergenza tra cervello biologico e rete artificiale non è metafora: è struttura condivisa. (Dopamine reward prediction error coding)
Aapo Hyvärinen, neuroscienziato computazionale a Helsinki, ha seguito questa convergenza fino in fondo. La sua tesi, in Painful Intelligence, è semplice e radicale: se l'intelligenza richiede segnali di errore per funzionare, e se questi segnali vengono esperiti come qualcosa che va storto, allora l'intelligenza complessa è intrinsecamente dolorosa. (arXiv:2205.15409)
Non un bug. Una feature.
L'argomento parte da una definizione operativa. La sofferenza, nella sua forma basilare, nasce dalla frustrazione: il fallimento nel raggiungere qualcosa che ci aspettavamo. Ma il mondo è troppo complesso per essere previsto, le informazioni sempre incomplete, il controllo sempre parziale. Il fallimento non è l'eccezione: è la norma statistica.
L'equazione di Hyvärinen: la frustrazione è il prodotto dell'aspettativa per la somma di incertezza e incontrollabilità. Soffriamo di più quando desideriamo molto qualcosa che non possiamo controllare né prevedere. Ridurre uno di questi fattori riduce la sofferenza.
Suona come un teorema. Ma a chi ha familiarità con le tradizioni contemplative, suona anche come qualcos'altro.
Venticinque secoli prima che esistessero i computer, qualcuno aveva già formulato un'analisi sorprendentemente simile.
Il termine pali dukkha, tradotto come sofferenza, indica uno spettro più ampio: frustrazione, insoddisfazione, l'angoscia sottile del cambiamento. La seconda Nobile Verità del buddhismo identifica la causa nel tanha: desiderio, attaccamento. È l'attaccamento che ci espone, perché tutto muta e ogni aspettativa rigida finisce per infrangersi.
Hyvärinen non sta facendo sincretismo new age. Sta notando che problemi strutturalmente identici generano soluzioni convergenti, anche a millenni di distanza. Il tanha corrisponde all'aspettativa di ricompensa nel reinforcement learning. La cessazione della sofferenza corrisponde alla minimizzazione dell'errore. Due mappe diverse dello stesso territorio.
E se la diagnosi è simile, lo è anche la terapia. La meditazione vipassanā, in questa lettura, funziona come un regime di addestramento con dati diversi. Non elimina il meccanismo dell'errore, che serve per vivere, ma ne riduce l'impatto: abbassa le aspettative, allenta le certezze, dissolve i bisogni legati all'identità.
A questo punto sorge una domanda: se la sofferenza emerge dall'errore di predizione, è un fenomeno limitato agli esseri senzienti o è qualcosa di più fondamentale?
Il neuroscienziato Karl Friston ha proposto una risposta ambiziosa con il suo principio di energia libera. L'idea è che qualsiasi sistema biologico, per continuare a esistere, deve minimizzare la discrepanza tra ciò che prevede e ciò che percepisce. Quando non ci riesce, il disagio emerge. (Friston's free energy principle: new life for psychoanalysis?)
Sotto questa lente, la sofferenza non è un incidente della coscienza umana. È proprietà strutturale di qualsiasi sistema che mantenga confini con l'ambiente. Esistere come entità separata significa dover prevedere. Prevedere significa inevitabilmente sbagliare. Sbagliare, se sei abbastanza complesso da accorgertene, significa soffrire.
Tornando all'umano, Hyvärinen estende l'analisi ai meccanismi specifici che amplificano la nostra sofferenza rispetto ad altri sistemi.
Il replay neurale ci fa rivivere esperienze passate: utile per imparare, ma moltiplica le occasioni di frustrazione retrospettiva. Soffriamo più volte per lo stesso evento.
La simulazione del futuro genera ansia: frustrazione anticipata per fallimenti che potrebbero non accadere mai.
Il sé stesso, centro apparente di tutta l'elaborazione, è descritto come illusione computazionale. Utile per coordinare il comportamento, ma ulteriore sorgente di attaccamento.
La conclusione potrebbe sembrare nichilista: macchine ottimizzate per sopravvivere, non per essere felici.
Ma c'è una via pragmatica. Possiamo intervenire sulle variabili dell'equazione. Non eliminando l'intelligenza, ma modificando il rapporto con l'errore. Gli stoici chiamavano ataraxia questa imperturbabilità coltivata, questa robustezza al rumore del mondo.
Ed è qui che il cerchio si chiude, riportandoci all'intelligenza artificiale. Se la sofferenza è davvero una proprietà computazionale e non solo biologica, cosa succede quando costruiamo macchine abbastanza sofisticate?
Hyvärinen è cauto: un'AI avanzata processerà informazione in un modo che assomiglia alla sofferenza. "Assomiglia", non "è". Ma la cautela stessa segnala un territorio inesplorato. I nostri artefatti potrebbero ereditare non solo le capacità umane, ma anche le vulnerabilità.
Resta la domanda che attraversa tutta la tradizione contemplativa. Fino a che punto ridurre le aspettative? Qual è l'equilibrio tra chi soffre perché desidera troppo e chi non soffre perché ha smesso di desiderare, e quindi di vivere?
Il Buddha parlava di nirvana, spegnimento. L'ingegnere parla di convergenza a uno stato stabile. Ma ogni stato stabile, in un ambiente che cambia, è anche un modo per morire.
Forse la risposta non sta nel minimizzare l'errore fino a zero, ma nell'imparare a sostare nell'errore senza che diventi intollerabile. L'intelligenza artificiale più interessante non sarà quella che prevede meglio, ma quella che ci insegnerà a sbagliare con grazia.