IBM (NYSE: IBM) ha annunciato
Granite 3.2, la nuova generazione della sua famiglia di modelli linguistici di
grandi dimensioni (LLM) Granite, con il costante obiettivo di fornire un'AI
aziendale che sia compatta, efficiente e pratica per determinare un impatto
concreto.
Tutti i modelli Granite 3.2 sono disponibili con la
licenza permissiva Apache 2.0 su Hugging Face. Oggi su IBM watsonx.ai, Ollama,
Replicate e LM Studio, e a breve su RHEL AI 1.5, sono disponibili modelli
specifici che introducono funzionalità avanzate per le aziende e per la
comunità open-source. I punti salienti includono:
·
Un nuovo vision language model (VLM) per attività
di comprensione di documenti, che registra prestazioni pari o superiori a
quelle di modelli significativamente più grandi, Llama 3.2 11B e Pixtral 12B,
sui benchmark aziendali essenziali DocVQA, ChartQA, AI2D e OCRBench.
Oltre a dati di addestramento robusti,
IBM ha utilizzato il proprio toolkit open-source Docling per elaborare 85
milioni di PDF e ha generato 26 milioni di coppie domanda-risposta sintetiche
per migliorare la capacità del VLM di gestire flussi di lavoro complessi con
molti documenti.
·
Capacità di chain of thought per un
ragionamento potenziato nei modelli 3.2 2B e 8B, con la possibilità di
attivare o disattivare il ragionamento per ottimizzare l'efficienza. Con questa
capacità, il modello 8B ottiene miglioramenti con valori a due cifre
rispetto al suo predecessore nei benchmark di follow-up delle istruzioni come
ArenaHard e Alpaca Eval, senza degradare in alcun modo la sicurezza o le
prestazioni.
Inoltre, con l'uso di nuovi metodi
di scalabilità dell'inferenza, il modello Granite 3.2 8B può essere calibrato per
competere con le prestazioni di modelli molto più grandi come Claude3.5-Sonnet
o GPT-4o nei benchmark di ragionamento matematico come AIME2024 e MATH500.
·
Opzioni di dimensioni ridotte per i modelli di sicurezza Granite
Guardian, che mantengono le prestazioni dei precedenti modelli Granite 3.1
Guardian con una riduzione del 30% delle dimensioni. I modelli 3.2 introducono
anche una nuova funzionalità definita "verbalized confidence"
(fiducia verbalizzata), che offre una valutazione del rischio più sfumata che
riconosce l'ambiguità nel monitoraggio della sicurezza.
La strategia di IBM di fornire modelli AI specializzati e
di dimensioni ridotte per le aziende continua a dimostrare efficacia nei test,
con il modello Granite 3.1 8B che ha recentemente ottenuto punteggi elevati in
termini di accuratezza nel Salesforce
LLM Benchmark per CRM.
La famiglia di modelli Granite è supportata da un solido ecosistema di partner, tra cui aziende leader nel software che incorporano i modelli Granite nelle loro tecnologie.
"In CrushBank, abbiamo visto in prima persona come i
modelli AI aperti ed efficienti di IBM offrano un valore reale per l'AI
aziendale, fornendo il giusto equilibrio tra prestazioni, efficacia dei costi e
scalabilità", ha affermato David Tan, CTO di CrushBank. "Granite
3.2 fa un ulteriore passo avanti con nuove capacità di ragionamento e siamo
entusiasti di esplorarle nella creazione di nuove soluzioni agentiche".
Granite 3.2 rappresenta un passo importante
nell'evoluzione del portfolio e della strategia di IBM per fornire un’AI
pratica e di piccole dimensioni per le aziende. Sebbene gli approcci a "chain
of thought" per il ragionamento siano potenti, richiedono una notevole
potenza di calcolo che non è necessaria per ogni attività. Pertanto, IBM ha
introdotto la possibilità di attivare o disattivare programmaticamente la
catena di pensieri. Per attività più semplici, il modello funziona senza
ragionamento per ridurre il sovraccarico di calcolo non necessario. Inoltre, altre tecniche di ragionamento come la scalabilità dell'inferenza hanno dimostrato che il modello Granite 8B può eguagliare o superare le prestazioni di modelli molto più grandi nei benchmark standard di ragionamento matematico. I metodi in evoluzione come la scalabilità dell'inferenza rimangono un'area chiave di interesse per i team di ricerca di IBM
Insieme ai modelli Granite 3.2 Instruct, Vision e
Guardrail, IBM sta rilasciando la prossima generazione dei suoi modelli
TinyTimeMixers (TTM) (meno di 10 milioni di parametri), con capacità di
previsione a lungo termine fino a due anni nel futuro. Questi costituiscono
strumenti potenti per l'analisi delle tendenze a lungo termine, comprese le
tendenze finanziarie ed economiche, la previsione della domanda della supply
chain e la pianificazione dell'inventario stagionale nel settore della vendita
al dettaglio.
"La prossima era dell'AI riguarda l'efficienza,
l'integrazione e l'impatto nel mondo reale, dove le aziende possono ottenere
risultati potenti senza spese eccessive di elaborazione", ha
affermato Sriram Raghavan (nella foto), VP di IBM AI Research. "Gli ultimi
sviluppi di IBM Granite si concentrano su soluzioni open e rappresentano un
ulteriore passo avanti nel rendere l'AI più accessibile, conveniente e di
valore per le aziende moderne".