
Indice
- Il grande assente, la personalità elettronica
- La nuova professione del futuro, il controllore di prompt
- Il super-controllore
- Concludendo sulle leggi che corrono veloci
Con l’art. 26 della legge 132/2025, il legislatore italiano ha deciso di fare sul serio. Non più solo linee guida, raccomandazioni e quei codici etici scritti come buoni propositi di inizio anno. Adesso il codice penale si arricchisce di un nuovo articolo, il 612-quater, che punisce l’illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale. Tradotto più o meno sarebbe “chi gioca con i deepfake per distruggere reputazioni, manipolare l’informazione e creare disinformazione aiutata da algoritmi, rischia il carcere”. Che bravi, vero?
E non è tutto. Lo stesso articolo 26 mette mano anche all’aggiotaggio (Aldo, Giovanni e Giacomo hanno usato questa parola in una scena cult), ossia, se a manovrare i mercati non è un broker senza scrupoli, ma un algoritmo addestrato a destabilizzare titoli e indici, la pena sale, da due a sette anni di reclusione. Wall Street è avvisata.
Il grande assente, la personalità elettronica
Dietro la severità della norma, resta però un vuoto che ha il profumo (proprio a volerci andare leggeri) del paradosso. Se però il legislatore punisce chi usa male l’AI, resta irrisolto un nodo centrale, che poi è la domanda che ci facciamo, e cioè, chi risponde quando a sbagliare è la macchina?
L’idea di una personalità elettronica però non è nuova. Il Parlamento europeo ci aveva pensato già nel 2017, salvo poi archiviare la questione. Oggi quella proposta torna d’attualità. Attribuire uno status giuridico all’AI significherebbe renderla responsabile in proprio, al pari di una società di capitali. Un po’ sembra fantascienza, ma anche l’idea di un’auto che si guida da sola ci pareva qualcosa di impossibile e un po’ ridicolo al tempo stesso fino a poco tempo fa, eppure oggi ce la troviamo parcheggiata sotto casa (e occupa anche parecchio spazio).
Un altro tema caldo, che si riallaccia a questa linea di “parcheggio”, è quello dell’assicurazione obbligatoria. Se l’auto deve avere la RC, perché questo non deve valere anche per un chatbot che potrebbe rovinare la vita di una persona diffondendo un contenuto falso? Una polizza specifica, legata alla personalità elettronica, abbasserebbe le remore nell’uso dell’AI, garantendo al contempo risarcimenti rapidi e certi (più certi che rapidi, stando in Italia…). Una forma di tutela che a mio avviso fa un po’ sorridere, anche se il problema dei deepfake dovrà trovare una quadra, prima o poi.
La nuova professione del futuro, il controllore di prompt
Cari notai, preparatevi. Se fino a ieri eravate voi ad autenticare firme, molto presto dovrete lasciare il posto (o almeno uno spazietto) anche ai certificatori di prompt. Una figura ancora indefinita, a metà strada tra il revisore dei conti e il poliziotto urbano digitale, incaricata di vigilare sugli input forniti alle macchine e sugli output che ne derivano. La domanda sorge spontanea (e non lo dico perché sono napoletana…oggi è tutta una citazione mediatica…) ma acciderbolina! Si può davvero immaginare un ruolo del genere? Affidarlo ad un povero essere umano (o povera creatura), che già fatica a distinguere un deepfake fatto coi fiocchi da un video reale, appare a mio avviso velleitario (fatemi usare questa parola). Affidarlo a un altro algoritmo, che controlla il primo algoritmo, vorrebbe dire creare il classico gioco di scatole cinesi in cui nessuno sa più chi vigila su chi (chi gioca in prima base…Chi…).
Però, è proprio qui che potrebbe nascondersi la soluzione: un sistema di AI meta-controllore. Un bel sistemone addestrato non a generare contenuti ma a rilevare ogni tipo di incongruenza, di errori logici, e di tante e tante distorsioni. Una specie di IA coscienza critica (che va tanto di moda tra i ricercatori e cervelloni informatici) in grado di analizzare i prompt in ingresso e valutare la bontà delle risposte in uscita, segnalando nel caso, determinate deviazioni rispetto a parametri normativi ed etici preimpostati.
Il super-controllore
Tutto questo però farebbe sorgere nuovi dilemmi. Chi addestra il controllore? E chi garantisce che il controllore non abbia a sua volta bias, falle, e belle simpatie politiche che lo condizionano? Non a caso, qualcuno ha già immaginato un doppio livello di vigilanza, e cioè un controllore di primo grado automatizzato, veloce e implacabile, e un super-controllore umano che interviene solo nei casi più nebulosi, quando la macchina segnala la possibilità di un errore critico.
Il problema, in fondo, non è tanto se sia possibile istituire questa figura, ma se sia credibile pensare di poter normare e certificare un universo linguistico e creativo che cresce a velocità esponenziale. Forse, alla fine, il controllore di prompt non sarà una persona con un tesserino ministeriale, ma un software invisibile che lavora in background, come l’antivirus che da anni monitora i nostri computer senza che ce ne accorgiamo. Ironia della sorte, la prima vera professione creata dall’AI per regolare l’AI potrebbe non essere mai esercitata da un essere umano.
Concludendo sulle leggi che corrono veloci
Ultima riflessione. Prendiamo in esame la necessità di uno strumento legislativo periodico, quasi un tagliando annuale delle regole, che sia capace di stare dietro allo sviluppo tecnologico. Diciamo allora che se l’AI Act europeo ha impiegato anni a includere il tema dei deepfake, l’Italia prova a darsi una scorciatoia (ed è qualcosa di sensazionale quando miriamo da centrocampo). La domanda però rimane: riuscirà la legge a tenere il passo con un settore in cui sei mesi equivalgono a un’era geologica? In fondo, forse l’ironia più grande sta proprio in questo. Siamo così bravi a creare sistemi intelligenti, che lanciamo con grande entusiasmo in libertà, per poi tentare di rincorrerli con un certo affanno a colpi di norme scritte. Una maratona infinita tra Codice civile e codice sorgente, in cui, almeno per il momento, l’algoritmo sembra correre più veloce.






