tecnologia

FastwebMIIA: nasce il LLM “sovrano” per la sicurezza dei dati



Indirizzo copiato

Fastweb+Vodafone presenta un nuovo modello linguistico interamente sviluppato in Italia, progettato per essere veloce, sicuro e personalizzabile. Con un investimento di 1,5 miliardi annui e oltre 100 casi d’uso interni già attivi, l’azienda punta su una strategia europea “sovrana” per l’intelligenza artificiale, rafforzando la propria identità di tech company

Pubblicato il 30 lug 2025



image

“Fastweb+Vodafone annunciano FastwebMIIA, un modello linguistico da sette miliardi di parametri, progettato per essere “leggero, veloce, sicuro e integrabile rapidamente”. Con un investimento annuale di circa 1,5 miliardi in infrastrutture e tecnologie, l’azienda consolida la sua transizione da operatore di telecomunicazioni a vera e propria tech company.

“Un quarto del nostro fatturato deriva ormai dalla vendita di servizi Ict”, afferma Walter Renna, CEO di Fastweb+Vodafone. L’urgenza di una strategia nazionale ed europea sulle infrastrutture tecnologiche è evidente: “L’Europa rischia una dipendenza strutturale da Stati Uniti e Cina non solo sull’IA, ma su tutte le tecnologie strategiche: cloud, supercalcolo, cybersecurity e trasmissione dati”, dichiara Renna.


FastwebMIIA: il modello linguistico “sovrano”

FastwebMIIA non vuole competere con i grandi LLM generalisti americani o cinesi, ma si propone come una soluzione modulare e adattabile a contesti specifici. È sviluppato interamente in Italia e ospitato su infrastrutture sovrane. FastwebMIIA garantisce piena compliance all’AI Act europeo e ai regolamenti su privacy e diritto d’autore.


Infrastrutture e asset strategici

A supporto di FastwebMIIA, l’azienda può contare su una solida base tecnologica: una rete in fibra e 5G a bassissima latenza, data center di ultima generazione sul territorio italiano, una piattaforma cloud ed edge proprietaria e, dal luglio scorso, un supercomputer Nvidia DGX SuperPOD, il terzo in Italia per capacità computazionale.


Sicurezza, efficienza e personalizzazione

Fastweb+Vodafone rivendica una visione “sovrana” dell’AI, allineata con la strategia dell’Unione Europea. In un contesto geopolitico instabile, il rischio di dipendenza da modelli esterni è concreto.

Rispetto ai modelli stranieri, FastwebMIIA offre tre vantaggi chiave:

  • è efficiente perché piccolo, leggero e a basso costo;
  • è sicuro perché sviluppato interamente in Italia, su dati tracciabili, provenienti da fonti autorevoli e ‘compliant by design’;
  • è personalizzabile e adattabile ai contesti di utilizzo, dal legale alla sanità al manufacturing.

AI al centro dei processi aziendali

L’intelligenza artificiale non è solo un prodotto, ma parte integrante dei processi interni. Un esempio concreto è il supporto agli operatori del call center tramite chatbot. Oggi gli agenti dialogano con un assistente AI per trovare velocemente la procedura corretta e il risultato è un servizio migliore e più rapido per i clienti.


Licenza Free
Utilizzo per scopi non commerciali

È disponibile una licenza gratuita per l’utilizzo del modello FastwebMIIA, scaricabile autonomamente da Hugging Face, nei seguenti casi:

  • Attività di ricerca personale, scientifica o accademica
  • Sperimentazione
  • Integrazione in sistemi di AI a uso aziendale interno, purché non rivenduti a terzi

Licenza a pagamento
Utilizzo per scopi commerciali

È disponibile una licenza a pagamento per l’utilizzo del modello FastwebMIIA a fini commerciali, in particolare per:

  • Integrazione in sistemi, prodotti o servizi forniti a terzi a titolo oneroso


Gli altri LLM italiani

Certo! Al momento (luglio 2025), l’Italia sta muovendo passi importanti nel campo dell’intelligenza artificiale generativa, inclusi i modelli linguistici di grandi dimensioni (LLM). Ecco un elenco aggiornato dei principali LLM sviluppati da aziende o istituzioni italiane, con qualche dettaglio su ciascuno:


Geppetto – iGenius (Milano)

  • Tipo: LLM italiano nativo
  • Anno di rilascio: 2023
  • Lingua principale: Italiano
  • Caratteristiche: Ottimizzato per il linguaggio naturale italiano, con focus su applicazioni enterprise e compliance europea.
  • Note: È stato uno dei primi LLM sviluppati da un’azienda italiana. Il nome richiama esplicitamente l’immaginario italiano (Pinocchio).

LLaMAITA – CINECA + Università di Pisa + Istituto Italiano di Tecnologia (IIT)

  • Tipo: Modello open-source derivato da Meta LLaMA
  • Anno di annuncio: 2024
  • Caratteristiche: Addestrato su dati prevalentemente italiani, con focus accademico e scientifico. Nasce da un consorzio pubblico-privato.
  • Obiettivo: Creare un’alternativa europea a modelli come GPT, conforme a standard etici e legali UE.
  • Infrastruttura: Addestrato su supercomputer Leonardo di CINECA.

Mistral-Italian (fine-tuning italiano su Mistral) – Vari team open-source

  • Alcuni gruppi italiani della community open-source hanno realizzato versioni fine-tunate in italiano del modello francese Mistral 7B, chiamate a volte “Mistral-it” o simili. Non sono LLM “nativamente italiani”, ma sono rilevanti per l’ecosistema locale.

AlmaLM (Università di Bologna – progetto AlmaAI)

  • Tipo: LLM accademico in via di sviluppo
  • Scopo: Addestrato per comprendere e generare italiano accademico e amministrativo.
  • Stato: Progetto ancora in fase di costruzione, mirato a sviluppare un’infrastruttura italiana pubblica per l’AI.

Modelli italiani da startup e centri di ricerca (in evoluzione)

  • Alcune startup italiane stanno lavorando su modelli verticali (es. legali, medici o finanziari), spesso fine-tuning di modelli open-source come LLaMA, Falcon, Mistral.
  • Esempi:
    • Aindo (Trieste): modelli per synthetic data e NLP italiano
    • CY4Gate: modelli LLM per cybersecurity e intelligence, in collaborazione con enti pubblici
    • Expert.AI: lavora su modelli NLP, anche se non sempre LLM generalisti

In breve

Nome ModelloAzienda/EnteTipo/OrigineStato
GeppettoiGeniusLLM proprietarioAttivo
LLaMAITACINECA, IIT, Univ. PisaOpen-source LLaMAIn sviluppo
AlmaLMUniv. BolognaAccademicoIn sviluppo
Mistral-itCommunity open-sourceFine-tunedVariabile

Articoli correlati