• 6 November 2024
AI ACT

Lo scorso 14 giugno, il Parlamento Europeo ha finalmente deciso di approvare il nuovo testo relativo all’ “AI Act”, ossia la proposta di regolamentazione presentata dalla Commissione Europea, in merito all’utilizzo dell’Intelligenza Artificiale (AI). Tutto questo nasce dal dibattito che si è acceso ormai da diversi mesi sulle varie modalità di progettazione, che vedono questa tecnologia come una nuova tipologia di elaborazione di contenuti, e non solo. Ci si è quindi resi conto di avere la necessità di elaborare un quadro normativo. Quello su cui si è molto insistito è la linea relativa ai diritti. Con i tempi di approvazione, potremo comunque solo vedere il risultato operativo entro la fine del 2025, mentre la produzione di un testo definitivo dovrebbe arrivare entro la fine di quest’anno.

AI ACT e regole

Fra le tante regole specifiche che dovrebbero trovare applicazione all’interno del nuovo quadro normativo, le più gettonate come categorie sono state quella di chat GPT di OpenAI e Bard di Google. I sistemi di intelligenza artificiale generativa sono il centro del dibattito che dovrebbe generare una giusta regolamentazione. Prima di tutto si fa riferimento ad obblighi di natura informativa. Questo vuol dire che in qualunque settore, che si tratti di editoria marketing o creazione di contenuti, sarà obbligatorio indicare le fonti algoritmiche a cui si è fatto riferimento. Non è però soltanto da parte degli utenti, che creano con l’intelligenza artificiale, che si vuole un ben definito atteggiamento di verifica. Sono soprattutto i fornitori dei sistemi generativi che dovranno adattare e impostare le caratteristiche dei vari modelli in maniera tale da non permettere la generazione di contenuti illegali.

La decisione di istituire una commissione di controllo e la progettazione di un piano normativo che regoli l’introduzione dell’intelligenza artificiale generativa all’interno dei vari settori è figlia di questi ultimi dibattiti globali. Cosa aspettarsi dall’intelligenza artificiale? Quali parametri sono più giusti per mettere al sicuro dati è informazioni?

Dopo il teatrino italiano legato al provvedimento di limitazione del trattamento da parte del garante stesso per la protezione dei dati personali imbastito contro ChatGPT, fortunatamente le acque hanno cambiato il loro decorso. Quello che sappiamo è che entro la fine di quest’anno l’Unione Europea riuscirà a produrre un provvedimento in versione definitiva in cui l’intelligenza artificiale sarà caratterizzata da un quadro giuridico e normativo a livello globale mai pubblicato prima.

Europa e AI

L’elaborazione di nuove regole che facciano riferimento a ben definiti parametri promuovono comunque la voglia di maggior fiducia nei confronti della dimensione algoritmica della AI. L’Europa si apre quindi alla possibilità di gestire i diritti dando la possibilità a tutti di utilizzare le nuove tecnologie generative. Sono diversi i principi applicati ai vari sistemi di intelligenza artificiale. Tra quelli generali troviamo sicuramente il principio di non discriminazione, poi quello legato al sostenibilità e al rispetto dell’ambiente nonché quello relativo alla controllabilità trasparente di tutti i sistemi da parte dell’uomo. Questo è solo il primo gradino che porta all’accessibilità ed immissione sul mercato dopo un’attenta regolamentazione. Sono diverse infatti le categorie di rischio a cui si rimanda l’utilizzo dell’intelligenza artificiale in diversi settori.

Sono vietati tutti quei sistemi di AI che possono generare alte percentuali di rischio. E per questo si intende tutto ciò che può manipolare il comportamento umano, o Dare la possibilità di un riconoscimento da remoto di un qualsiasi utente. Inoltre i sistemi di intelligenza artificiale definiti ad alto rischio, devono essere sottoposti a diverse fasi di valutazione. Questo prima di essere immessi sul mercato, e poi durante tutto l’arco di vita del sistema stesso. Fa poi la sua differenza la categoria dei sistemi di AI, che va sotto il nome di Intelligenza Artificiale a rischio limitato.

Parliamo in questo caso di quei sistemi che sono in grado di generare immagini modificate audio o video raffiguranti persone reali. Di questi deepfake ne abbiamo visti diversi, soprattutto navigando sui social network. E il dibattito è stato molto acceso in quanto si è arrivati alla conclusione che un dato non reale se argomentato in un contesto inconsapevole può generare grossi rischi.

La regolamentazione prevede quindi che l’utente che si trovi di fronte ad un’immagine modificata e generata tramite AI sia in grado di distinguere la natura del contenuto non autentico.

LLM e reti neurali

I grandi modelli linguistici, ossia i nuovi sistemi di intelligenza artificiale, sono alla base dati da grandi reti neurali artificiali. Nella logica di implementazione e crescita del modello di solito vengono utilizzati migliaia di chip specializzati (GPU). L’obiettivo è quello di poter arrivare alla conoscenza di miliardi di parole di testo. Più il modello sarà grande più costerà metterlo in funzione. Ed è per questo motivo che i ricercatori stanno iniziando a porre le basi per lo studio di nuovi modelli più efficienti ma un pò più piccoli.

La possibilità che si concretizzi questa soluzione prevederebbe unicamente la riduzione del numero dei parametri interni al modello ma con un addestramento superiore in fatto di dati. Se si alimenta un LLM più piccolo con un maggior numero di dati, l’addestramento è naturalmente più lungo. Il risultato però sarà quello di un modello più veloce e più economico.

I ricercatori di Google hanno definito una strada diversa improntata sull’utilizzo di modelli generativi di intelligenza artificiale molto più piccoli. Il modo in cui hanno proceduto alla realizzazione di questo studio è stato un approccio diverso. Ossia ci si è concentrati sulla estrazione delle conoscenze specifiche richieste da un modello grande in uno più piccolo e non generico ma specializzato. E’ quindi come se il modello grande avesse avuto il ruolo di insegnante e il modello piccolo da allievo.

Conclusioni

Non è soltanto di regolamentazione che si dovrebbe parlare quando pensiamo all’intelligenza artificiale. L’AI ACT è solo un percorso normativo giusto al quale va prestata attenzione. In realtà ciò che più appare come importante da visualizzare è la conoscenza di fondo di questa incredibile tecnologia. In ogni settore si apriranno innovative strade di crescita e non solo come dicono, di azzeramento di ruoli. Ci sarà un cambio prima generazionale, così come è sempre contemplato all’interno dell’ambiente tecnologico e poi la creazione di una nuova linea di visione. L’Intelligenza Artificiale è un ponte verso la costruzione di un nuovo modo di creare ciò di cui abbiamo bisogno.