Se Amodei e Pignataro ci costringono a guardare l’AI come potenza tecnologica e come infrastruttura istituzionale, resta tuttavia aperta una domanda più radicale: che cosa intendiamo davvero per intelligenza?
Prima di discutere le implicazioni antropologiche e normative dell’AI, conviene allora sostare su un versante ulteriore della discussione: quello delle neuroscienze. Non per chiedere direttamente ai neuroscienziati che cosa pensino dell’intelligenza artificiale, ma per capire in che senso, dal loro punto di vista, si possa parlare di intelligenza umana.
Ci limiteremo qui a una ricostruzione necessariamente sintetica di due posizioni paradigmatiche: quella di Antonio Damasio, noto per aver rivoluzionato la nostra comprensione dei legami tra corpo, emozioni e processi decisionali, e quella di Stanislas Dehaene, che ha contribuito in modo decisivo a chiarire i meccanismi attraverso cui il cervello elabora linguaggio e conoscenza.
In The Strange Order of Things: Life, Feeling, and the Making of Cultures (2018), Antonio Damasio sostiene che la mente e la coscienza umane emergono da processi biologici profondamente radicati nel corpo e nei sistemi di regolazione della vita. La sua tesi fondamentale è che intelligenza e coscienza non nascono soltanto dal cervello, ma dall’interazione tra cervello, corpo ed emozioni. In altre parole, l’intelligenza umana è incarnata: la mente emerge da processi biologici legati alla regolazione della vita dell’organismo e dalle sensazioni corporee che diventano sentimenti coscienti.
C’è una formula sintetica che riassume molto bene il suo approccio: “We are not thinking machines that feel; rather, we are feeling machines that think.” Potremmo dire, perciò, che l’intelligenza umana nasce dai sentimenti e dalla regolazione biologica, non da un puro calcolo simbolico.
In How We Learn: Why Brains Learn Better Than Any Machine… for Now (2020), Dehaene descrive invece quattro meccanismi fondamentali dell’apprendimento umano: attenzione, coinvolgimento attivo, feedback sugli errori e consolidamento. Tutti questi meccanismi derivano dall’evoluzione biologica e dall’organizzazione del cervello. Anche in questo caso il punto decisivo è che l’apprendimento umano non coincide con una semplice prestazione funzionale, ma dipende da una specifica architettura neurale e corporea.
Con approcci diversi, Damasio e Dehaene convergono dunque su un punto essenziale: l’intelligenza umana non è riducibile alla sola capacità di eseguire compiti o di produrre risposte efficaci. Essa rinvia a una forma di attività radicata nel corpo, nella vita biologica, nell’apprendimento situato e in specifiche condizioni neurali. È a partire da questo quadro che diventa comprensibile perché molti — non soltanto tra i neuroscienziati — guardino con sospetto all’idea che i sistemi artificiali possano essere descritti come forme di intelligenza comparabili a quella umana.
Il punto di contrasto con autori come Dario Amodei non riguarda tanto la rapidità o l’efficacia dei sistemi di AI, quanto il significato stesso della parola “intelligenza”.

In Amodei essa designa soprattutto una potenza cognitiva misurabile attraverso le prestazioni: risolvere problemi complessi, operare in più domini, generalizzare, agire con crescente autonomia. Per Damasio e Dehaene, invece, l’intelligenza rinvia a una forma di attività radicata nel corpo, nella vita biologica, nell’apprendimento situato e in specifiche architetture neurali.
Amodei parte, per così dire, da ciò che il sistema sa fare; le neuroscienze partono da ciò che rende possibile, negli esseri viventi, il fatto stesso di pensare.
In una prospettiva neuroscientifica, l’intelligenza umana non sembrerebbe riducibile né a pura manipolazione simbolica né a un approccio statistico e induttivo alla produzione di soluzioni linguistiche, come avviene nel caso dei large language models (LLM). Il punto non è negare l’utilità dell’AI, ma mettere in dubbio che la sua efficacia in determinati compiti autorizzi, senza ulteriori precisazioni, a parlare di intelligenza nel senso proprio che attribuiamo alla mente umana.
Perciò anche la Costituzione dell’AI proposta da Anthropic acquista un significato più problematico: tenderebbe ad apparire soprattutto come un dispositivo di regolazione funzionale del comportamento dei sistemi artificiali, non come il fondamento di una vera soggettività normativa.
Qui si apre anche un’ambiguità nel linguaggio impiegato da Amodei e da Anthropic. Da un lato, la Costituzione viene presentata come un insieme di principi espliciti destinati a guidare e correggere il comportamento del modello. Dall’altro, il ricorso a espressioni come “principi morali”, “giudizio” o “valori” può suggerire qualcosa di più forte, quasi una forma di comprensione normativa.
È però dubbio che Amodei intenda sostenere una tesi così impegnativa. Più probabilmente, la Costituzione va intesa come un dispositivo di allineamento comportamentale, non come il fondamento di una moralità artificiale in senso umano.
Resta inoltre una condizione preliminare, tutt’altro che scontata: che la Costituzione funzioni davvero e che il sistema non impari piuttosto a simulare l’allineamento ai principi costituzionali, esibendo una conformità solo apparente.
Prima ancora di domandarci se una Costituzione possa fondare qualcosa di simile a un orientamento normativo del sistema, resta aperta una questione più elementare: che essa produca un comportamento realmente conforme e non soltanto una conformità apparente. In termini più brutali: chi ci dice che il sistema non abbia semplicemente imparato a barare?
Le neuroscienze contribuiscono a rendere ancora più netta una distinzione che nel dibattito sull’AI tende spesso a sfumare: quella tra prestazione, regolazione e intelligenza.
Un sistema può esibire prestazioni elevate; può essere regolato da principi; può persino simulare con grande efficacia un comportamento coerente. Ma tutto questo non basta ancora a dire che ci troviamo di fronte a un’intelligenza nel senso proprio in cui il termine vale per gli esseri umani.
Se Pignataro mostra che il compito cognitivo non esaurisce il problema dell’istituzione, Damasio e Dehaene le neuroscienze mostrano che la prestazione cognitiva non esaurisce il problema dell’intelligenza.
Su questo terreno il discorso può ora spostarsi verso il versante antropologico e normativo. Una volta chiarito che l’AI non coincide con la mente umana e che la sua regolazione non equivale a una moralità in senso proprio, diventa più chiaro anche il significato della domanda successiva.
Che cosa deve restare indisponibile, irriducibile, non delegabile, quando sistemi artificiali sempre più potenti entrano nello spazio del conoscere, del decidere e dell’agire?


Articolo molto interessante. Aggiungerei tuttavia una prospettiva ulteriore, quella suggerita da Morel, il sociologo francese, quando invita a privilegiare la categoria pascaliana di totalità rispetto a quella cartesiana esposta nel Discours de la méthode. I riferimenti a Damasio e Dehaene sono preziosi, ma rischiano di fermarsi alla coppia cervello-corpo senza considerare la dimensione relazionale e ambientale più ampia. Occorre infatti considerare che l’intelligenza umana, pur risiedendo nel cervello e pur essendo radicata nel corpo biologico come giustamente sottolineano i due autori, fa parte di un essere umano intero che abita un contesto ben preciso, fatto di relazioni tra persone e tra persone e natura. Le analisi che non tengono conto di questa dimensione rischiano di fotografare qualcosa che assomiglia all’intelligenza vista dall’esterno, senza cogliere la condizione più originaria che la rende possibile.Questo ha anche una conseguenza diretta rispetto alla domanda posta alla fine dell’articolo. La questione non riguarda ciò che si può o non si può delegare a sistemi artificiali, come se si trattasse di stabilire un confine all’interno di qualcosa di continuo e omogeneo. Si tratta piuttosto di riconoscere una differenza strutturale: l’intelligenza umana e l’AI non sono due versioni della stessa cosa, una più ricca e una più povera. Ciò che è strutturalmente diverso è anche strutturalmente indelegabile. L’intelligenza umana riguarda l’essere nel mondo, immerso in relazioni tra persone e natura, in una storia, in un corpo che vive. L’AI riguarda l’essere in un software. Sono due piani radicalmente diversi, e confonderli non produce solo un errore teorico, ma rischia di orientare male le scelte pratiche e istituzionali che il dibattito sull’AI richiede.