Roberto Pezzali su DDay.it illustra alcuni dei risultati e delle evidenze dei test di Minerva, la prima famiglia di grandi modelli linguistici (LLM) addestrati “da zero” per la lingua italiana.
«La caratteristica distintiva dei modelli Minerva è il fatto di essere stati costruiti e addestrati da zero usando testi ad accesso aperto, al contrario dei modelli italiani esistenti ad oggi, che sono basati sull’adattamento di modelli come LLaMA e Mistral, i cui dati di addestramento sono tuttora sconosciuti” spiega Roberto Navigli, a capo del progetto. “Nello specifico, ogni modello Minerva è stato addestrato su un vasto insieme di fonti italiane e inglesi online e documentate, per un totale di oltre 500 miliardi di parole, l’equivalente di oltre 5 milioni di romanzi.»
Commenta qui sotto e segui le linee guida del sito.