- Home
- Interviste
- Giovanni Giamminola: come pote ...

Intelligenza umana, sensibilità tecnologica, intelligenza artificiale. Un passaggio naturale e doveroso da fare ormai, sempre integrando e sempre cercando di non perdere il gusto per l’innovazione, anche e soprattutto dal punto di vista umano. Perché questo è fuori da ogni dubbio, siamo e resteremo umani. Perché il vero nodo, come spesso accade, non è tecnologico, ma cognitivo. Non riguarda gli strumenti, bensì la postura mentale con cui li utilizziamo. È su questo terreno che oggi si gioca la differenza tra un manager che guida l’AI e uno che ne viene silenziosamente guidato.
Ne ho parlato un po’ con Giovanni Giamminola, ideatore del modello Systemic Zero e del percorso Il Manager Potenziato, che applica al management i più recenti studi sulla cognizione aumentata e sul cosiddetto System 0. Un approccio che ribalta la formazione tradizionale, spostando il focus dai tool alle architetture decisionali, dal prompt al pensiero, dall’efficienza locale alla responsabilità del giudizio. Giovanni ha girato parecchio e conosce un po’ le culture del mondo, e questo non può che gettare le basi per una buona intervista. Forse perché Il Giamminola ha una faccia gioiosa, o forse perché ha dell’umiltà sottopelle che me lo rende simpatico dalla prima schermata via web (chi intervista spesso è dall’altra parte dell’emisfero, ormai è così, ci siamo abituati), fatto sta che la nostra chiacchierata inizia con questa sua intro.
Oggi l’intelligenza artificiale può portare la nostra capacità di analisi a livelli mai visti prima, ma può anche, se usata male, mettere in pausa alcune funzioni mentali fondamentali. Il punto, però, non è quanto usiamo l’AI, bensì come pensiamo quando la usiamo. Un manager non perde pensiero critico perché utilizza l’AI. Lo perde quando la utilizza dalla “postura mentale” sbagliata. Quando parlo di posture cognitive mi riferisco a vere e proprie impostazioni mentali profonde: il modo in cui un leader si colloca di fronte a un problema, a una decisione, a una fonte di intelligenza esterna. Non sono tecniche né strumenti. Sono il punto di vista cognitivo da cui nasce il ragionamento. È qui che si gioca la differenza tra un manager che usa l’AI e uno che viene guidato da essa. In questo quadro entra il concetto di System 0. Nasce dal lavoro dei ricercatori dell’Human and Technology Lab dell’Università Cattolica, come estensione dei modelli di System 1 e System 2. System 0 descrive una forma di cognizione esternalizzata, resa possibile dall’interazione continua con sistemi tecnologici avanzati. Il mio contributo è aver applicato questo concetto al management, traducendolo in un’architettura decisionale che ho chiamato Systemic Zero. Una mente aumentata parte da un presupposto non negoziabile: l’intelligenza artificiale non risponde al posto nostro, risponde con noi. System 0 non sostituisce il pensiero umano riflessivo, ma lo esternalizza e lo amplifica. Il manager potenziato impara a distinguere con chiarezza due momenti che non devono mai collassare: la generazione, in cui l’AI moltiplica possibilità e ipotesi, e l’attribuzione di senso, che resta radicalmente umana e non delegabile. Ogni output dell’AI va trattato come materiale cognitivo grezzo, mai come verità. La regola è semplice e brutale: se non sei in grado di spiegare perché l’AI ha ragione, allora non ha ancora ragione. Il pensiero critico non si perde quando si delega il calcolo. Si perde quando si delega la responsabilità del giudizio.
In quali fasi del problem solving manageriale l’AI offre il miglior lift cognitivo, e dove invece crea illusioni pericolose?
L’intelligenza artificiale è straordinaria prima e dopo la decisione. Diventa rischiosa nel mezzo, quando il manager non è consapevole della postura da cui sta operando. Offre un enorme lift cognitivo quando viene usata per esplorare il problema, per mappare variabili, per stressare assunzioni che spesso diamo per scontate. È potentissima nella simulazione di scenari alternativi, nei what-if, nel rendere visibili effetti secondari che l’intuizione umana tende a ignorare. È altrettanto efficace nel ridurre il rumore informativo, sintetizzando complessità e facendo emergere pattern invisibili. Le illusioni più pericolose emergono invece nel territorio del giudizio finale, delle decisioni ad alta ambiguità morale, politica o culturale e delle scelte irreversibili. Qui l’AI diventa insidiosa non perché sbaglia più dell’essere umano, ma perché è estremamente brava a sembrare convincente anche quando è fragile. Il vero rischio non è l’errore in sé, ma l’eleganza dell’errore. Un manager debole usa l’AI per cercare conferme. Un manager potenziato la usa per mettere in crisi la propria ipotesi.
Quale gap vedi oggi tra formazione aziendale tool-centric e reale trasformazione dei processi?
Il gap è enorme ed è sempre lo stesso: stiamo formando utilizzatori di strumenti, non architetti di pensiero. Gran parte dei percorsi italiani di formazione sull’AI è fortemente tool-centric. Insegna come fare prompt, come usare piattaforme, come ottenere output migliori, ma non insegna da quale postura mentale pensare con l’AI. Anzi, parlare di prompt è già un errore concettuale, perché fa sembrare l’AI una tecnica esterna, complicata e quasi esoterica; ciò di cui parlo io, invece, è pensiero: di come impostiamo le domande, di come costruiamo il ragionamento e di quale postura mentale adottiamo quando dialoghiamo con un’intelligenza che amplifica la nostra. Il risultato è un aumento di efficienza locale, ma nessuna trasformazione reale dei processi decisionali e nessun miglioramento strutturale della qualità delle scelte. La vera trasformazione non consiste nell’“usare l’AI nei processi”, ma nel ridisegnare i processi partendo dal fatto che il pensiero non è più confinato nella testa umana. Finché la formazione non lavorerà su posture cognitive, confini di responsabilità e governance del pensiero aumentato, staremo solo lucidando il cruscotto di un’auto che procede nella direzione sbagliata.
Se dovessi progettare un core curriculum nazionale in dodici ore per manager non-tech, cosa inseriresti?
E’ proporio quello che faccio nelle aziende con Systemic Zero. Il primo passaggio è dedicato all’architettura cognitiva: non agli strumenti, ma alle impostazioni decisionali. Capire quando l’AI deve esplorare, quando deve sfidare il pensiero umano e quando, invece, deve tacere. System 0 va introdotto come ambiente cognitivo, non come software. Il secondo snodo riguarda i bias e le illusioni dell’AI. Compiacimento, autorità simulata, overconfidence algoritmica, insieme alle implicazioni etiche, legali e morali. Un manager che non capisce come può sbagliare l’AI non è solo impreparato: è un rischio sistemico. Il terzo livello riguarda il ridisegno concreto dei processi decisionali: come cambiano ruoli, riunioni, deleghe e meccanismi di governance quando l’intelligenza diventa ibrida. Tutto il resto – tutorial sui tool, liste di prompt, demo spettacolari e storytelling futuristico – è rumore. Sono competenze che si acquisiscono rapidamente e che invecchiano ancora più in fretta. La postura cognitiva, invece, richiede tempo e allenamento.
Quali ruoli manageriali vedi più esposti all’automazione cognitiva?
Non è una questione di funzione, ma di postura mentale. Sono più esposti quei manager che aggregano informazioni, producono report, fanno sintesi standard e prendono decisioni procedurali. Spesso si tratta di ruoli di controllo, di coordinamento senza vera ownership, di posizioni che vivono di presentazioni più che di scelte. Chi interpreta, sceglie, assume rischio e regge l’ambiguità non viene sostituito. Viene potenziato. L’AI tende a eliminare i ruoli decorativi e ad amplificare quelli responsabili.
Qual è la lezione umana più importante che hai tratto dai progetti AI, e quale rituale consigli?
La lezione più importante non è tecnica, è profondamente umana: l’intelligenza artificiale non mette in crisi le competenze, mette in crisi l’identità. Nei progetti AI emergono sempre le stesse paure: contare meno, essere smascherati, non essere più necessari. Chi resiste all’AI spesso non sta difendendo il proprio lavoro, ma l’immagine che ha costruito di sé. Per questo, più che nuovi strumenti, servono nuovi rituali organizzativi. Fermarsi periodicamente a rileggere una decisione presa con il supporto dell’AI e chiedersi dove l’AI ha aiutato, dove avrebbe potuto ingannare e dove il contributo umano ha fatto la differenza non serve a giudicare, ma ad allenare la lucidità. Perché il vero vantaggio competitivo non è usare l’intelligenza artificiale. È restare responsabili quando l’intelligenza artificiale diventa intelligente. Oggi, questa è la forma più autentica di leadership.






