approfondimento

Distillazione dei LLM, cos’è, come funziona, quali sono le tecniche più utilizzate



Indirizzo copiato

Un’operazione che consente di trasferire conoscenze da modelli di grandi dimensioni garantendo capacità simili o leggermente inferiori a fronte però di un minor consumo di risorse computazionali. Alla base si trova il paradigma teacher-student, un approccio in cui un modello di grandi dimensioni (teacher), trasferisce la propria conoscenza a un modello più piccolo (student)

Pubblicato il 20 mar 2025

Luca Sambucci

Esperto e consulente di AI Security e AI Strategy



distillazione LLM

La corsa verso modelli di intelligenza artificiale più efficienti sta evidenziando una tensione crescente tra chi sviluppa tecnologie avanzate e chi cerca di sfruttare nuovi approcci per ottenere risultati paragonabili ma a costi più contenuti. La distillazione, tecnica non certo nuova ma sempre più diffusa per alleggerire e ridurre le risorse necessarie per l’addestramento dei modelli di AI (LLM), si è recentemente trasformata in un terreno di scontro tra le aziende che puntano all’ottimizzazione delle risorse computazionali e quelle che temono una perdita di difendibilità dei loro costosi modelli.

Continua a leggere questo articolo

Articoli correlati