• 27 July 2024
Frontier Model Forum

Indice

Quattro delle più avanzate aziende di intelligenza artificiale al mondo – Anthropic, Google, Microsoft e OpenAI – hanno unito le forze per creare un forum di ricerca dedicato allo sviluppo di un’intelligenza artificiale sempre più potente e al controllo responsabile della stessa. Denominato “Frontier Model Forum,” il progetto è stato lanciato mercoledì 26 luglio con l’obiettivo di garantire un progresso sicuro e responsabile dei modelli di AI, rispondendo anche alle crescenti richieste di controllo normativo sull’impatto della tecnologia.

Potenziale dell’AI

Secondo quanto riferito nel blog di OpenAI, sia i governi che l’industria riconoscono il potenziale dell’AI nel portare enormi benefici al mondo, ma sono altrettanto consapevoli della necessità di implementare adeguate protezioni per mitigare i rischi. In questo contesto, gli Stati Uniti, il Regno Unito, l’Unione Europea, l’OCSE e il G7 e altri, hanno già contribuito significativamente a questi sforzi.

Il Frontier Model Forum si concentrerà su tre principali aree nel corso del 2024, al fine di promuovere uno sviluppo sicuro e responsabile dei modelli di Intelligenza artificiale.

  1. Favorire lo scambio di conoscenze e le migliori pratiche tra industria, governi, società civile e mondo accademico, con particolare attenzione agli standard e alle pratiche di sicurezza per affrontare una vasta gamma di potenziali rischi.
  2. Sostenere l’ecosistema della sicurezza delle AI individuando le principali questioni di ricerca aperte sulla sicurezza dell’AI. In particolare, il Forum si focalizzerà sulla robustezza avversaria, l’interpretabilità meccanica, la supervisione scalabile, l’accesso indipendente alla ricerca, i comportamenti emergenti e il rilevamento delle anomalie.
  3. Uno degli obiettivi iniziali sarà lo sviluppo e la condivisione di una biblioteca pubblica di valutazioni tecniche e benchmark per i modelli di AI di frontiera.

Strategie e finanziamenti

Stabilire meccanismi affidabili e sicuri per la condivisione di informazioni riguardanti la sicurezza e i rischi dell’AI tra le aziende, i governi e le parti interessate, rispettando le migliori pratiche di divulgazione responsabile.

Il Frontier Model Forum avrà un comitato consultivo rappresentante di diverse esperienze e prospettive per guidare la strategia e le priorità del progetto. Le aziende fondatrici stabiliranno gli accordi istituzionali chiave, inclusi statuto, governance e finanziamenti, attraverso un gruppo di lavoro e un comitato esecutivo.

Il Forum si propone di collaborare con altre iniziative governative e multilaterali esistenti, come il processo di Hiroshima del G7, l’OCSE, il Consiglio per il commercio e la tecnologia USA-UE e altre iniziative multi-stakeholder come la Partnership on AI e MLCommons, al fine di contribuire a sostenere e alimentare lo sviluppo sicuro dell’AI.

Obiettivi del Frontier Model Forum

Gli sviluppi recenti nell’ambito dell’IA hanno visto aziende statunitensi lanciare strumenti sempre più potenti, capaci di generare contenuti originali come immagini, testi e video attingendo a una vasta quantità di dati disponibili. Tutto ciò ha suscitato preoccupazioni riguardanti le possibili violazioni del copyright, la protezione dei dati e della privacy, e il timore che l’AI potrebbe, in futuro, sostituire gli esseri umani in diversi ambiti di lavoro.

Il Frontier Model Forum si pone come uno sforzo cruciale per unire il settore tecnologico nella promozione di un’AI responsabile e per affrontare le sfide legate a questa tecnologia, per il bene di tutta l’umanità. L’adesione al forum sarà limitata a poche aziende coinvolte nella costruzione di “modelli di apprendimento automatico su larga scala che superano le capacità attualmente presenti nei modelli più avanzati esistenti”. Pertanto, il Forum si concentrerà specificamente sui rischi legati a un’IA notevolmente più potente, piuttosto che sulle questioni di copyright, protezione dei dati e privacy che rientrano nell’ambito delle autorità di regolamentazione.