PGIM_970x250_HEADER

AI, intervista a Nicola Grandis (ASC27): “Vitruvian-1 creata in tempi record”

intelligenza artificiale arte cultura tecnologia vitruvian-1
PGIM_970x250_ARTICOLO
Velasco25 Articolo

Una trentina di persone, due-tre mesi di sviluppo, poche decine di migliaia di euro e l’Italia ha un nuovo modello di intelligenza artificiale che – in alcune delle tante metriche su cui misurare i modelli AI – riesce a ottenere risultati simili a quelli di grandi attori internazionali. Vitruvian-1, un LLM ‘Chain of Thought reasoning’ sviluppato dalla società romana ASC27, ha ottenuto punteggi elevati nei benchmark MATH (95,5%) e MMLU (90,2%). Il primo si focalizza sulla capacità di risoluzione matematica complessa. Il secondo sulla comprensione linguistica e il ragionamento su un vasto spettro di argomenti. Così la startup è finita sui giornali e nei pensieri del Governo, con il Sottosegretario all’Innovazione Alessio Butti che ha inserito Vitruvian-1 tra i progetti che dimostrerebbero come l’Italia stia recuperando terreno nell’intelligenza artificiale.

Non che il modello della startup romana – come tutti i modelli Made in Italy – sia paragonabile a ChatGpt, e nemmeno alla cinese DeepSeek: il numero di parametri è molto inferiore (‘solo’ 14 miliardi) ma il technical report del modello svela quale sia il suo vero punto forte: l’ottimizzazione delle risorse computazionali. E non solo, spiega a Fortune Italia Nicola Grandis, fondatore di ASC27. Intanto, alla beta di quello che la startup definisce il “modello reasoning numero 1 in Europa”, si può accedere qui.

 

ASC27 ha appena lanciato Vitruvian-1, un modello avanzato di intelligenza artificiale. Quante persone hanno lavorato al progetto e qual è il vostro percorso di crescita?

Abbiamo coinvolto circa 30 persone nello sviluppo. Stiamo già lavorando al rilascio di nuovi modelli di AI e la nostra ambizione è creare soluzioni su misura per il business, come un abito sartoriale su misura. Non ci interessa l’effetto ‘wow’: vogliamo modelli utili e realmente efficaci per le aziende. Per portare avanti il progetto su larga scala serviranno ancora più persone. Siamo già stati contattati da tanti ricercatori italiani che potrebbero essere disposti a tornare. Ce ne sono diversi anche in Cina. Ma siamo molto contenti del percorso finora, e ci siamo di essere solo all’inizio.

La maggior parte delle famiglie di modelli italiani (Minerva della Sapienza, Velvet di Almawave, Colosseum di iGenius) vengono o verranno addestrati grazie ai supercomputer. Primo fra tutti il Leonardo ospitato dal Cineca, a Bologna. Voi dove avete addestrato il modello? Avete una partnership tecnologica?

Abbiamo scelto un approccio alternativo. Invece di utilizzare supercomputer costosi, abbiamo addestrato il modello su server cloud, selezionando quelli con il costo più basso in tempo reale. È stato un processo che ha richiesto molta ingegnosità.

Questo approccio si discosta parecchio da quello tipico delle big tech, che investono milioni in risorse di calcolo. Come avete fatto a ottenere risultati comparabili?

Esistono due modi per affrontare progetti complessi: uno tradizionale, che prevede l’uso massivo di GPU, e un altro che richiede carta, penna e soprattutto ingegno. Ci siamo ispirati anche al lavoro di DeepSeek, pur non avendo le loro risorse. Abbiamo creato Vitruvian-1 con 14 miliardi di parametri, un traguardo raggiunto con molta efficienza.

Quali sono i prossimi sviluppi per Vitruvian-1?

Vitruvian-1 è un modello reasoning capace di inferire conoscenze che non possiede, un po’ come facciamo noi esseri umani: una volta che ci è stato insegnato a salire le scale, sappiamo scalare anche una collina. I prossimi modelli saranno specializzati per settori specifici, ad esempio il legal o la chimica. L’obiettivo è creare soluzioni su misura per intere industrie.

Parlando di costi, quanto investito per lo sviluppo del modello? Siete una versione italiana di DeepSeek, che ha speso molto meno dei competitor americani per i suoi modelli?

Forse un po’ meglio: abbiamo speso decine di migliaia di euro, una cifra estremamente contenuta rispetto ai milioni necessari per progetti simili. Questo approccio permette anche ai nostri clienti di beneficiare di modelli più leggeri a un costo inferiore, generando un circolo virtuoso.

Di cosa avete bisogno per crescere ulteriormente?

Abbiamo sempre finanziato la crescita con risorse interne. Siamo in contatto con investitori e ci ‘inseguono’ da quando siamo nati, ma per noi ha senso parlare solo di investimenti sopra i 10 milioni di euro. Se troviamo il partner giusto, possiamo scalare la tecnologia, creare laboratori di ricerca e competere con le grandi aziende.

Per ora avete contato solo sulle vostre forze? O avete già raccolto finanziamenti?

Non abbiamo ancora effettuato raccolte formali, nonostante ci siano arrivate diverse proposte. Una volta, un investitore dall’America ci disse che non poteva investire meno di 300 mln di dollari. Per noi era troppo e non aveva senso accettare senza avere una misurazione concreta del potenziale del modello.

In questi giorni si ha la percezione che siate “spuntati dal nulla”. È corretto?

Per i media forse, ma in realtà no. L’azienda è attiva dal 2020 e abbiamo pubblicato quattro paper di ricerca, collaborando anche con Stanford e altre istituzioni internazionali. Serviamo già clienti in tutta Italia, comprese istituzioni importanti.

Quando avete iniziato a lavorare su Vitruvian-1?

Abbiamo cominciato a parlarne internamente a metà novembre 2024. In circa due mesi siamo riusciti a sviluppare il modello, un risultato che dipende dalla competenza e dalla determinazione delle persone coinvolte.

 

Vitruvian, i risultati preliminari:

 

MMLU (Massive Multitask Language Understanding) e MATH-500 sono benchmark standard utilizzati per valutare le prestazioni dei modelli di intelligenza artificiale, in particolare dei large language models (LLM). Ecco come si posiziona Vitruvian-1 a livello internazionale secondo i risultati preliminari:

MMLU SCORE:

  • DeepSeek-R1 (US), 671B: punteggio 90,8
  • OpenAI-o1 (US), 1076B: punteggio 91,8
  • Vitruvian-1 (ITA), 14B: punteggio 90,2
  • Llama 3.1 – 405B (US), 405B: punteggio 88,6
  • DeepSeek-V3 (CN), 671B: punteggio 86,5
  • Claude 3.5 Sonnet (US), 400B: punteggio 83,4
  • Grok-2 (US), 314B: punteggio 81
  • OpenAI-o3-mini (US), 200B: punteggio 80,6
  • OpenAI-o1-mini (US), 300B: punteggio 79,5
  • Gemini 2.0 Flash (CN), 1500B: punteggio 72
  • Qwen 2.5-72B (CN), 72B: punteggio 70,2

MATH-500 SCORE:

  • OpenAI-o3-mini (US), 200B: punteggio 97,9
  • DeepSeek-R1 (US), 671B: punteggio 97,3
  • OpenAI-o1 (US), 1076B: punteggio 96,4
  • Vitruvian-1 (ITA), 14B: punteggio 95,5
  • OpenAI-o1-mini (US), 300B: punteggio 92,4
  • DeepSeek-V3 (CN), 671B: punteggio 90,2
  • Gemini 2.0 Flash (CN), 1500B: punteggio 89,7
  • Qwen 2.5-72B (CN), 72B: punteggio 85
  • Claude 3.5 Sonnet (US), 400B: punteggio 78,3
  • Llama 3.3 70B (US), 70B: punteggio 77
  • Grok-2 (US), 314B: punteggio 76,1
  • Llama 3.1 – 405B (US), 405B: punteggio 73,8

 

OpenEuroLLM, la riscossa AI dell’UE spiegata da chi la guida

PGIM_300x600_ARTICOLO side
PS25 Box

Leggi anche

Ultima ora

Iscriviti alla nostra Newsletter

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.