NF24
Cerca
Close this search box.

I modelli di AI ‘open source’ non sono così aperti come sembrano

In un documento pubblicato la scorsa settimana, i ricercatori della Carnegie Mellon University e dell’AI Now Institute, insieme al presidente della Signal Foundation Meredith Whittaker, hanno analizzato a fondo cosa c’è – e cosa non c’è – di veramento ‘aperto’ negli attuali sistemi di AI ‘open source’. Da LLaMA-2 di Meta ai vari modelli di OpenAI, molte delle tecnologie di AI in fase di rilascio sono pubblicizzate dai loro creator come ‘open source’, ma gli autori della ricerca sostengono che non siano poi così aperte e che questi termini siano usati in modi confusi e diversi, che hanno a che fare con il marketing. 

Gli autori si interrogano anche su come, a causa delle sostanziali differenze tra i grandi sistemi di AI e il software tradizionale, anche le offerte di AI più ‘aperte’ non garantiscano parità di condizioni né facilitino la democratizzazione dell’AI. Le grandi aziende infatti utilizzano le loro soluzioni aperte di AI per sfruttare il vantaggio di possedere l’ecosistema e conquistare il settore.

“Negli ultimi mesi abbiamo assistito a un’ondata di sistemi di AI descritti come ‘aperti’ nel tentativo di creare un brand, anche se gli autori forniscono un accesso relativo o una scarsa trasparenza sul sistema”, hanno dichiarato i ricercatori alla newsletter di Fortune ‘Eye on A.I’, aggiungendo che queste aziende dichiarano di essere “aperte” pur non rivelando le caratteristiche chiave dei loro sistemi, dalle dimensioni del modello alle informazioni di base sui dati di addestramento utilizzati.

Nel documento, i ricercatori suddividono le loro scoperte per categorie, tra cui framework di sviluppo, calcolo, dati, lavoro e modelli. Prendendo come esempio il modello LLaMA-2, gli autori definiscono “controverse, superficiali e al limite della disonestà” le affermazioni di Meta secondo cui il modello è open source, sottolineando come non soddisfi i criteri chiave che gli consentirebbero di essere considerato convenzionalmente open source, come ad esempio il fatto che la sua licenza è stata scritta da Meta e non è riconosciuta dall’Open Source Initiative.

Un punto cruciale dell’articolo è la discussione su come l’utilizzo di massa dei sistemi di AI dei giganti del tech rafforzi ulteriormente la loro proprietà sull’intero panorama, riducendo questa ‘apertura’ e conferendo loro un immenso potere indiretto. Nel valutare PyTorch di Meta e TensorFlow di Google, i due framework dominanti per lo sviluppo dell’AI, gli autori sottolineano come questi accelerino il processo di implementazione per coloro che li utilizzano, ma a enorme vantaggio di Meta e Google.

“Soprattutto, consentono a Meta, Google e a coloro che guidano lo sviluppo del framework di standardizzare la costruzione dell’AI in modo che sia compatibile con le loro piattaforme aziendali, assicurando che il loro framework porti gli sviluppatori a creare sistemi di AI che, come un Lego, si incastrino con i loro sistemi“, si legge nel documento.

Ne consegue che, nell’ambito dell’AI, etichette come “open source” non sono necessariamente un dato di fatto, ma piuttosto un linguaggio scelto dai dirigenti di potenti aziende il cui obiettivo è far proliferare le proprie tecnologie, conquistare il mercato e incrementare le proprie entrate.

La posta in gioco è alta, poiché queste aziende integrano l’AI in un numero sempre maggiore di settori del nostro mondo e i governi si affrettano a regolamentarle. Oltre a constatare la recente proliferazione di iniziative di AI “aperte” e non, gli autori hanno dichiarato che sono state le pressioni esercitate da queste aziende a spingerli a intraprendere la ricerca.

“Ciò che ha fatto scattare la molla è stato osservare il livello significativo di lobbying da parte di operatori del settore, come la Business Software Association, Google e GitHub di Microsoft, per cercare di ottenere un’esenzione alla legge europea sull’AI“, hanno affermato gli autori.

In generale, non parliamo quindi solo della confusione e della mancanza di definizione di termini come “aperto” e “open source”, ma piuttosto di come vengono usati (o abusati) dalle aziende e di come possono influenzare le leggi che guideranno questo campo e tutto ciò che toccherà in futuro. Per non parlare del fatto che si tratta di alcune delle stesse aziende che attualmente vengono citate in giudizio per aver rubato i dati che hanno reso possibili queste stesse tecnologie.

“L’AI ‘aperta’, per la sua natura non ben definita, può significare molte cose per molte persone, il che è utile nel contesto dei feroci dibattiti che riguardano le norme da seguire”, hanno affermato gli autori.

L’articolo originale è disponibile su Fortune.com

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.