• 6 November 2024
Come riprodurre il ragionamento umano con l’AI

Indice

C’è un piccolo problema che continua a destare qualche sospetto e dubbio sull’utilizzo standardizzato (o quotidiano, come meglio preferiamo) dell’AI: le sue allucinazioni. E’ vero, le ha e anche spesso. Dipende da cosa? Forse un giusto prompt può prevederle? Il ragionamento che ora cercheremo di fare non si baserà però su questi interrogativi ma su quelle differenze attualmente quasi insormontabili che continuano a zampettare tra il ragionamento umano e l’AI.

Sì è vero, le allucinazioni sono veri e propri errori. E questi errori, in cui l’AI genera risposte o previsioni senza basi reali, possono avere conseguenze anche gravi. Però se prese in tempo, o se addirittura incanalate in un flusso analitico che le individua subito, possono anche abbassare di molto la loro percentuale di problematicità. La chiave per superare questo ostacolo potrebbe essere quella di focalizzarsi sulla riproduzione e analisi del ragionamento umano. In particolare (perché vogliamo essere precisi) sulla capacità di prevedere i problemi in anticipo e sviluppare di seguito l’intuizione.

Come funziona il ragionamento umano

Quando il nostro cervello elabora qualcosa, ciò che avviene è un processo complesso che combina dati sensoriali, esperienze passate e intuizione per prendere determinate decisioni. Questa capacità di anticipare i problemi e sviluppare soluzioni intuitive è ciò che rende l’intelligenza umana così potente. Riprodurre questa caratteristica nell’AI richiede un approccio multidisciplinare che vada quindi ad integrare neuroscienze, psicologia cognitiva e ingegneria informatica. Mamma mia quanta roba, vero?

Ma partiamo dalla previsione dei problemi, che è poi la componente cruciale del ragionamento umano. Quello che ad oggi sappiamo è che siamo in grado di anticipare le conseguenze delle nostre azioni e a modificare in base a questo, il nostro comportamento (di conseguenza). Questo processo coinvolge l’analisi di pattern e l’uso di conoscenze pregresse per fare in modo che ci siano previsioni informate. E allora? E’ tutto spiegabile e calcolabile? No. Per niente. E sapete perché? Perché siamo una razza intuitiva, e l’intuizione, d’altra parte, è una forma di conoscenza immediata che non si basa su nessuna analisi logica dettagliata. Per il semplice fatto che si tratta di un risultato di esperienze accumulate e di una profonda comprensione del contesto.

Ecco allora la soluzione: integrare queste capacità nell’AI potrebbe ridurre significativamente il rischio di allucinazioni. Cosa ve ne sembra? Si può fare? Proviamoci immaginandolo.

Tecniche, allucinazioni ed emozioni

Attualmente, sono in fase di sviluppo diverse tecniche per ridurre le allucinazioni nell’AI e tutte molto attive e pratiche. Reti Neurali che siano in grado di generare un costante feedback iterativo, potrebbero essere una prima soluzione. Attraverso l’implementazione di queste potrebbe essere possibile rivedere e correggere determinate risposte attraverso cicli di feedback, simili al nostro processo di riflessione umano. Poi dopo questa impanatura, potremmo rivolgerci ad un apprendimento rinforzato per addestrare l’AI a riconoscere e a correggere i propri errori in tempo reale. E le emozioni? Non sono molto importanti anche quelle? Potrebbe essere fattibile integrare una serie di modelli collegati a specifici campi emotivi in maniera tale da migliorare la capacità dell’AI nel comprendere il contesto e prendere decisioni un po’ più umane.

Per alcune persone questo “un po’ più umane” potrebbe addirittura creare spavento. In realtà però i benefici potrebbero essere davvero tanti. Se la riproduzione del ragionamento umano nell’AI dovesse avere successo, potremmo avere dei ritorni davvero incredibili. Si potrebbe migliorare la sicurezza e l’affidabilità dell’AI, aprendo così la strada alla sua adozione in ambiti che attualmente sono un po’ delicati come quello della diagnosi medica. Siamo sicuri però che ci arriveremo molto presto.

Intuizione umana e ragionamento artificiale

Torniamo però sul tema dell’intuizione che continua ad essere una delle facoltà cognitive più misteriose e affascinanti che caratterizzano noi esseri umani (o in alternativa, povere creature). Intuizione vuol dire avere la capacità di conoscenza immediata, che non si basa su un’analisi logica dettagliata ma piuttosto su esperienze accumulate e su di una profonda comprensione del contesto.  

In che modo siamo intuitivi? Di solito avviene che ogni interazione, evento o decisione passata contribuiscono a formare un substrato di conoscenza implicita che può essere richiamato istantaneamente in situazioni simili. Questa più o meno la spiegazione tecnica. Il fatto è che noi esseri umani abbiamo l’innata capacità di cogliere sfumature e dettagli del contesto in cui ci veniamo a trovare e che sfuggono a un’analisi puramente logica. Questa capacità di leggere tra le righe è cruciale per prendere poi delle decisioni intuitive.

In che modo potrebbe essere possibile il connubio mentale predittivo?

Molti processi intuitivi avvengono al di sotto del livello della coscienza. Le persone spesso non sanno spiegare perché hanno preso una certa decisione intuitiva, ma possono comunque agire in modo corretto. Inoltre l’intuizione umana è altamente flessibile e può adattarsi rapidamente a situazioni anche impreviste. Questa capacità è alimentata da una combinazione di ragionamento emotivo e cognitivo.

Replicare il pensiero intuitivo

Replicare l’intuizione umana nell’AI è un obiettivo molto ambito al momento. Ed è uno dei principali motivi per cui i colossi della tecnologia globale si stanno muovendo verso soluzioni di questo tipo. E’ chiaro allora che di prima base le voci saranno sempre le stesse: apprendimento profondo (deep learning), apprendimento rinforzato (reinforcement learning), o reti neurali con feedback iterativo. Replicare la comprensione umana del contesto richiede però un livello di sofisticazione che attualmente rimane fuori portata per molti sistemi.

 Se dovessimo quindi fare un confronto sulla carta (come quello che un tempo si faceva a fine pasto nelle osterie, penna alla mano), potremmo dire che le caratteristiche dell’intuizione umana e di quella artificiale sono suddivisibili in due linee. Quella di noi povere creature terrestri cammina su di una origine che ha alla base esperienze vissute e conoscenza implicita. Per continuare con processo inconscio spesso inspiegabile. Un’elevata flessibilità nell’adattarsi a contesti sempre nuovi, con una profonda comprensione del contesto che include sfumature e una miriade di dettagli. E l’AI? Non molto simile purtroppo. Dati addestrati con algoritmi di base, un ragionamento logico basato su algoritmi, e una conoscenza del contesto superficiale, basata soprattutto su dati strutturati. E quindi? A che punto siamo?       Al punto secondo cui manca attualmente una comprensione profonda e si sta cercando di lavorare soprattutto su questo (vedi Strawberry di OpenAI).

E allora concludiamo

E allora? A qualche domanda abbiamo risposto? Forse. La cosa che però riteniamo sia fondamentale è l’input continuo alla ricerca di un punto di contatto tra le due dimensioni. Umana e artificiale, mai l’una senza l’altra. E anche se le loro differenze risultino essere fondamentali, implicano comunque il fatto che l’una non possa in alcun modo (almeno per il momento) semplicemente sostituire l’altra. La combinazione delle capacità analitiche dell’AI con l’intuizione umana potrebbe ben presto, rappresentare la via più promettente per affrontare problemi molto complessi. La sfida (e l’obiettivo) futuri saranno evidentemente quelli di integrare in modo efficace questi due approcci, sfruttando al massimo le potenzialità di entrambi.