- Home
- MetaHealth
- Cosa succede al cervello quand ...

Indice
- Il ridimensionamento della corteccia prefrontale
- Dopaminergiamoci!
- La sindrome dell’automa
- Saremo tutti molto ibridi
Per comprendere cosa accade nella nostra corteccia quando cediamo il testimone del ragionamento a un’intelligenza artificiale, è necessario partire da un principio fondamentale della neurobiologia: il cervello umano è un organo intrinsecamente avaro di risorse metaboliche. Da una prospettiva evolutiva, la nostra massa grigia è programmata per cercare il percorso a minore spesa energetica, un principio noto come legge del minimo sforzo. Delegare un compito cognitivo a un esterno — che sia un libro, un calcolatore, oppure oggi, un Large Language Model — non è in sé una patologia, ma l’estrema evoluzione di un’abilità adattativa. Quando però l’interazione con l’AI diventa sistematica, il cervello attiva meccanismi neuroplastici che ridisegnano non solo cosa pensiamo, ma come pensiamo, alterando equilibri delicati tra circuiti del ragionamento, della memoria e della coscienza di sé.
Il ridimensionamento della corteccia prefrontale
Quando interagiamo con un’AI generativa per risolvere un problema complesso, stiamo effettivamente esternalizzando le funzioni della corteccia prefrontale dorsolaterale (DLPFC). Quest’area, considerata il centro del ragionamento esecutivo, della pianificazione sequenziale e dell’inibizione delle risposte impulsive, tende a ridurre la sua attività elettrica quando percepiamo che un agente esterno sta gestendo il carico computazionale. Di fronte a una risposta generata dall’AI, si osserva un fenomeno chiamato di attenuazione dell’elaborazione top-down. Vuol dire che il cervello smette di costruire attivamente strategie e inizia a operare come un supervisore pigro, limitandosi a validare il risultato finale piuttosto che partecipare al processo. Se questo meccanismo viene ripetuto con costanza, si innesca un processo di potatura sinaptica funzionale. In questa linea le connessioni neurali dedicate al problem solving strategico vengono gradualmente indebolite perché considerate dal sistema nervoso come ridondanti, portando a una minore efficienza nell’affrontare problemi nuovi in assenza di un supporto artificiale.
In psicologia cognitiva, il concetto di memoria transattiva descrive la nostra capacità di ricordare non i dati, ma dove trovarli. Con l’ntelligenza algoritmica, questo fenomeno subisce una mutazione qualitativa. Non si tratta più di sapere che l’informazione è su Internet o in un determinato libro (per chi legge ancora…), ma di sviluppare un senso di affidamento epistemico continuo. Il cervello, e in particolare l’ippocampo — la struttura cruciale per la codifica di nuovi ricordi — inizia a trattare l’approvvigionamento tecnologico come un’estensione del sé. Quando crediamo che un’informazione sia facilmente accessibile tramite un dispositivo esterno, l’ippocampo riduce l’impegno nella codifica della memoria a lungo termine. Con l’AI, il rischio è ancora più profondo, perché non dimentichiamo solo i dati (nomi, date, formule), ma dimentichiamo i percorsi logici che portano a quei dati. Il cervello esternalizza il processo, non solo il contenuto, creando un vuoto nell’architettura della conoscenza profonda.
Dopaminergiamoci!
Un aspetto su cui non si fa molta analisi è l’impatto dei modelli di apprendimento sul sistema dopaminergico della ricompensa. Il circuito mesolimbico, che rilascia dopamina in risposta a stimoli gratificanti, è sensibile non solo al risultato, ma anche allo sforzo impiegato per ottenerlo. Esiste un meccanismo neurobiologico chiamato euristica dello sforzo, per cui il valore soggettivo di un risultato è proporzionale alla difficoltà percepita nel raggiungerlo. Quando l’AI elimina completamente lo sforzo — fornendo un saggio, un codice (o addirittura una diagnosi in pochi secondi) — il cervello riceve un picco di dopamina immediato per la soluzione rapida, ma nel tempo si desensibilizza alla gratificazione derivante dallo sforzo cognitivo prolungato. Questo crea una forma di dipendenza cognitiva, e in questo modo, la fatica mentale diviene avversiva e il soggetto sviluppa una preferenza comportamentale per le soluzioni preconfezionate, perdendo tolleranza per l’ambiguità e la frustrazione che sono parte integrante del pensiero originale.
La sindrome dell’automa
Delegare il pensiero all’AI altera il senso di agency, ovvero quella consapevolezza di essere la causa dei propri pensieri e azioni. Nelle normali operazioni cognitive, la corteccia motoria supplementare e le aree parietali posteriori generano una codifica predittiva che ci permette di distinguere tra un pensiero nostro e uno indotto dall’esterno. Quando un’Intelligenza artificiale genera un’idea che poi adottiamo come nostra, si crea un conflitto tra il feedforward della macchina e il feedback della nostra coscienza. Questo ci porta a pensare che un uso prolungato di IA generativa per compiti creativi può portare a una attenuazione del potenziale di prontezza, che sarebbe poi quel segnale elettrico cerebrale che precede un’azione volontaria. Si rischia così di sviluppare un fenomeno simile a quello osservato nei pazienti con anarchic hand syndrome, ma su un piano cognitivo. Cosa vuol dire? Che non si è più sicuri se un’idea sia frutto di una riflessione autentica o di un allineamento probabilistico suggerito dall’algoritmo, con un conseguente indebolimento dell’identità intellettuale.
E dobbiamo essere così bravi da fare in modo che questo non avvenga. Basti pensare alla memoria di lavoro, gestita prevalentemente dalla corteccia prefrontale, che è la lavagna mentale su cui appuntiamo i nostri pensieri complessi. Funziona attraverso meccanismi di ripetizione e raggruppamento che richiedono pratica e una reale concentrazione. Quando deleghiamo il pensiero all’IA, interrompiamo il loop fonologico e il taccuino visuospaziale naturali. Non siamo più costretti a mantenere attive le informazioni nella memoria di lavoro perché l’AI le gestisce per noi. Questo priva il cervello dell’esercizio fondamentale del mantenimento attivo. La neuroplasticità risponde a questa mancanza di stimolo riducendo l’efficienza sinaptica delle reti coinvolte nella memoria di lavoro. Paradossalmente, l’uso della nuova tecnologia esponenziale come stampella cognitiva rende più difficile sostenere ragionamenti articolati quando la connessione viene a mancare, creando una forma di disabilità cognitiva situazionale. Avete mai avuto questa sensazione?
Saremo tutti molto ibridi
Adesso parliamo di creatività e di pensiero divergente. Il nostro cervello, nella sua architettura a rete, eccelle nel creare connessioni semantiche lontane e inaspettate, grazie alla diffusione dell’attivazione tra aree come la corteccia cingolata anteriore e la corteccia temporale. L’Intelligenza artificiale generativa, per sua natura statistica, tende a restituire la media delle risposte più probabili, ovvero le associazioni più battute dal linguaggio umano. Quando deleghiamo a essa la fase di brainstorming, la mente subisce un fenomeno di priming forzato, e così facendo le associazioni suggerite dalla macchina inibiscono la ricerca autonoma di percorsi meno ovvi. A livello neuronale, si osserva un’iperattivazione delle aree legate alla valutazione a discapito delle aree generatrici (corteccia prefrontale laterale). Invece di pensare, ci trasformiamo in curatori di output, perdendo la capacità di generare la scintilla iniziale dell’intuizione.
Quanto descritto non implica che “donare” il pensiero all’AI sia intrinsecamente nocivo, ma richiede comunque una consapevolezza metacognitiva senza precedenti. Il nostro cervello è un organo straordinariamente plastico e noi siamo sempre stati cervelli ibridi, ossia, estesi dai nostri strumenti. Il rischio attuale non è la sostituzione quindi, ma l’atrofia selettiva, che tradotto poi sarebbe il progressivo indebolimento di quelle reti neurali che non utilizziamo più. Per mantenere un equilibrio sano, è necessario allora distinguere tra compiti di esecuzione (dove l’IA è un validissimo amplificatore) e compiti di costruzione (dove il processo di sforzo, l’errore, la frustrazione e la correzione sono essenziali per mantenere l’integrità delle funzioni esecutive e del senso di sé). In un’era di AI ubiqua, la vera intelligenza non sarà più solo quella di saper usare gli strumenti, ma quella di saper decidere consapevolmente quando non usarli, preservando la neurodiversità del nostro stesso pensiero come un bene cognitivo fondamentale.






