• 9 February 2026
Intelligenza umana e AI

Indice

Un tempo scrivevamo da soli, scegliendo le parole, una per una, come se stessimo ogni volta ricamando a mano un filo di pensiero. O almeno, questo è sempre il modo in cui io l’ho fatto. Oggi, accanto a noi (ma tanto vicino), c’è una voce diversa, algoritmica, fluida, veloce. Suggerisce frasi, propone idee, compone immagini. Non dorme mai. Eppure, in questa collaborazione silenziosa tra uomo e intelligenza artificiale, succede qualcosa di più profondo di quanto crediamo. Non si tratta solo di accelerare il lavoro e di semplificare le ricerche. No, qui la cosa va oltre. È un esperimento neurocognitivo in tempo reale, e cioè, per la precisione, ogni volta che interagiamo con un’AI, il nostro cervello cambia modo di funzionare.

Le neuroscienze ne tracciano la mappa. Non diventiamo più pigri, ma più selettivi. Non smettiamo di pensare, ma pensiamo in un modo diverso. È come se il nostro cervello, di fronte a questa nuova forma di intelligenza, rivedesse con lucidità ancora più profonda i propri compiti, lasciando all’AI la fatica dell’esecuzione, e concentrandosi unicamente sul significato.

Il cervello curatore

Chi scrive, ma anche chi disegna, con l’aiuto di un algoritmo sa che l’AI è una fonte inesauribile di possibilità, ma davvero inesauribile. Ed è proprio per questo che serve un filtro umano. Cosa ci dicono le neuroscienze cognitive? È chiaro già da un po’. Quello che fanno è mostrare che quando lasciamo all’intelligenza artificiale il compito di generare una prima bozza, il nostro cervello attiva reti diverse da quelle della creazione manuale. Le aree linguistiche e motorie, quelle che normalmente pianificano le frasi e i gesti, si mettono un po’ più in disparte, diventando per un attimo più quiete. Si accendono invece la corteccia prefrontale dorsolaterale, sede del controllo e della valutazione, e la corteccia cingolata anteriore, specializzata nel riconoscere ogni tipologia di errore e di incongruenze.

In questa modalità, non siamo più solo produttori di contenuto, ma curatori di senso. Ci muoviamo in una dimensione cognitiva simile a quella dell’editor (e un po’ anche del giudice). Valutiamo, confrontiamo, scartiamo. È un passaggio molto sottile ma tanto cruciale, dal minimo gesto creativo al pensiero profondamente critico. E mentre lo facciamo, altre aree come il default mode network, associato alla riflessione interiore e all’immaginazione, dialogano con i circuiti del controllo, generando un tipo di creatività più riflessiva, più stratificata.

Le prove e le ipotesi

Alcuni esperimenti recenti lo confermano. In contesti di scrittura assistita da modelli linguistici, i partecipanti producono testi più coerenti e in meno tempo, soprattutto se partono da competenze intermedie. È come se l’AI fungesse da trampolino. E quindi cosa fa? Libera la mente dall’onere dell’esecuzione, consentendole di salire di livello, di dedicarsi alla strategia e alla forma.

Dal punto di vista neurofunzionale, questa interazione attiva anche i circuiti della ricompensa, quelli che rilasciano dopamina quando un compito riesce bene, e soprattutto quando sentiamo di funzionare in sintonia con la macchina. Collaborare con un’intelligenza artificiale fluida, capace di comprenderci, può generare una piccola scarica di piacere cognitivo, simile a quella che proviamo in una conversazione riuscita, così come in un lavoro di squadra molto armonioso. Ma è proprio in questa sincronia che si nasconde anche un rischio.

Quando la macchina pensa al posto nostro

La psicologia cognitiva usa un termine eloquente, ossia cognitive offloading. Significa delegare porzioni di memoria e di ragionamento a un supporto esterno. È un comportamento antico, abbiamo cominciato con la scrittura, poi con Internet. Oggi però l’AI porta l’offloading a un livello più profondo. Non solo ricordiamo meno, ma rischiamo di allenare di meno la capacità di giudizio.

C’è poi l’automation bias, la fiducia automatica. Di fronte a un sistema che risponde con tono sicuro e coerente, il cervello riduce la vigilanza. Gli studi sui potenziali cerebrali (i segnali elettrici che indicano il riconoscimento dell’errore) mostrano che, in presenza di un assistente percepito come infallibile, la risposta neuronale di allerta si attenua. È come se l’ACC, la centralina del controllo interno, si rilassasse un po’ troppo. L’effetto è sottile ma concreto, e cioè accettiamo suggerimenti meno accurati, non per pigrizia, ma perché il nostro cervello crede di potersi fidare. In questo senso, l’intelligenza artificiale diventa uno specchio, e di conseguenza più sembra umana, più rischiamo di trattarla come tale.

Trovare l’equilibrio

Le ricerche suggeriscono che la chiave non è opporsi alla tecnologia, ma imparare a danzare con essa. L’uso ideale dell’AI non è quello della delega totale né quello della diffidenza, ma una via di mezzo, e in questo caso parliamo di co-creazione bilanciata. Quando alterniamo momenti di generazione automatica e momenti di revisione attiva, il cervello attiva sia le reti associative che quelle esecutive. Il che vuol dire sfruttare il meglio di entrambe le intelligenze.

Per arrivarci, si potrebbe ipotizzare anche un nuovo tipo di design cognitivo, come ad esempio delle interfacce che non forniscano risposte definitive, ma stimolino il dubbio, dando un po’ più opzioni, di spiegazioni e soprattutto di gradi di incertezza. Così si attivano le aree del controllo e della riflessione, mantenendo la mente in stato di attenzione critica.

Educare al dialogo con l’AI

Nella scuola, nei laboratori, nei luoghi della ricerca e dell’arte, c’è bisogno, a mio avviso, di aprirsi ad un compito nuovo, ossia quello di insegnare a usare l’intelligenza artificiale non come un oracolo, ma come un vero e proprio interlocutore. L’AI è già adesso un potente strumento di apprendimento, ed è capace di potenziare la scrittura, la riformulazione e la comprensione. Certo, può anche trasformarsi in una scorciatoia che erode la memoria di lavoro, se viene usata senza consapevolezza, ma nel momento in cui esiste la possibilità di questa discrepanza (chiamiamola pure così) va insegnata presto la soluzione. Per questo le neuroscienze parlano di alfabetizzazione metacognitiva, non imparare solo come funziona l’AI, ma come funziona la nostra mente quando la usiamo.

Imparare a dialogare con l’algoritmo significa allenare la capacità di interrogare, di mettere in dubbio, ma soprattutto di scegliere. È un esercizio di pensiero critico, ma anche di umanità.

Un cervello in evoluzione

Il cervello umano non arretra di fronte all’intelligenza artificiale, quello che invece fa è molto interessante, perché si adatta, si espande, rinegoziando il proprio spazio. È la stessa trasformazione che avvenne con la scrittura, con la stampa, e con Internet. Ogni tecnologia cognitiva ci ha costretto a ridefinire la linea che separa la memoria interna da quella memoria esterna, tra conoscenza e accesso alla conoscenza. L’AI fa lo stesso, ma a un livello più profondo, perchè non estende solo la nostra memoria, ma lo fa soprattutto con il nostro modo di pensare.

Collaborare con una macchina non significa cedere la mente, ma metterla alla prova. L’intelligenza artificiale ci obbliga a confrontarci con ciò che rende unico il pensiero umano, il che vuol dire, la capacità di attribuire valore, di intuire sfumature e di immaginare il non detto. Nel lungo periodo, forse, questa alleanza potrebbe far emergere una forma di intelligenza più ampia. Io penso ad un’intelligenza condivisa, dove il cervello umano resta sempre la regia sensibile di un pensiero che ora ha due voci, una biologica e l’altra algoritmica. Ed è solo l’inizio.