ricerca

L’Università Federico II sfida Big Tech con logiche multi-agente capaci di gestire l’incertezza



Indirizzo copiato

All’International Joint Conference on Artificial Intelligence 2025 di Montreal, la facoltà di Informatica dell’Università di Napoli conquista due posti sul podio con i lavori del professor Murano. Un risultato che ridefinisce l’AI globale, dimostrando che l’innovazione non è solo questione di capitali o big data

Pubblicato il 28 ago 2025



image

A ll’International Joint Conference on Artificial Intelligence 2025 (IJCAI) di Montreal, la conferenza più prestigiosa al mondo sull’AI, in mezzo a colossi americani e cinesi, l’Università Federico II di Napoli si è fatta notare. La facoltà di Informatica ha conquistato due slot di presentazione, un traguardo che pochi atenei possono vantare. Due lavori che hanno sbaragliato quasi settemila paper inviati da istituzioni accademiche di primo piano.


La selezione più dura del mondo accademico

Aniello Murano

Chi conosce IJCAI sa che non si tratta di una conferenza qualunque. Su circa 7.000 lavori inviati, solo 1.023 sono stati accettati: meno di uno su cinque. “Numeri che raccontano una selezione spietata, al limite del darwinismo accademico”, commentano gli addetti ai lavori.

Eppure la Federico II, guidata dal professor Aniello Murano, non si è limitata a entrare: ha brillato con due contributi che la comunità scientifica già considera fondamentali.


La rivoluzione della Coalition Logic

Il primo lavoro, dal titolo “First Order Coalition Logic (FOCL)”, unisce due mondi finora separati: la Coalition Logic e la Strategy Logic. In sostanza, fornisce un linguaggio per spiegare come più agenti – robot, algoritmi o software – possano ragionare insieme e prendere decisioni coordinate.

La vera novità? La spiegabilità. Non solo il sistema raggiunge un obiettivo, ma rende trasparente ogni passo del ragionamento: FOCL non si accontenta di dire se un gruppo può raggiungere un obiettivo. Va oltre, analizza le singole azioni, mossa dopo mossa.


Assiomi contro il mito della black box

La forza di FOCL non è solo nella potenza, ma nel metodo: è stata assiomatizzata. Un sistema formale di regole che consente di verificare e replicare i processi decisionali. In un’epoca in cui governi e imprese si affidano a “black box” opache, questo significa poter ricostruire e giustificare ogni scelta di un algoritmo.

Applicazioni concrete? Diagnosi mediche verificabili, allocazioni finanziarie trasparenti, strategie di cybersicurezza dimostrabili. “L’innovazione non sta solo nel costruire AI sempre più potenti, ma nel renderle sostenibili, affidabili e persino consapevoli dell’impatto energetico”, spiega Murano.


L’AI che sa gestire l’incertezza

Il secondo lavoro, “Strategies, Credences, and Shannon Entropy”, affronta una sfida ancora più radicale: insegnare all’AI a convivere con l’incertezza. Mentre Big Tech continua a inseguire il mito dell’onniscienza, la Federico II propone logiche che modellano probabilità, credenze e qualità dell’informazione.

È come se l’AI smettesse di essere un professore che pretende di sapere tutto e diventasse finalmente un interlocutore consapevole dei propri limiti.

Con due logiche innovative – PATLC e PATLH – l’AI impara non solo a stimare probabilità, ma anche a gestire il disordine informativo. In cybersicurezza, per esempio, l’obiettivo può non essere acquisire più conoscenza, ma aumentare l’incertezza dell’avversario.


Filosofia applicata, con ricadute concrete

Se vi sembra filosofia, lo è: una filosofia però tradotta in rigore matematico e in applicazioni immediate. Dalla protezione della privacy nei sistemi di voto digitali alla gestione delle decisioni politiche, la nuova AI italiana è più vicina al pensiero umano che a un calcolatore dal volto oscuro.

Il messaggio è chiaro: “Insegniamo alle macchine a vivere nel dubbio, a essere sagge. In fondo, un’intelligenza che riconosce i propri limiti è infinitamente più affidabile di una che finge di non averne.”

Università Federico II di Napoli

L’Italia al centro della ricerca mondiale

Che entrambi i lavori arrivino da Napoli e non da Stanford o Tsinghua è un dato che fa riflettere. Significa che non servono soltanto miliardi e cluster di GPU per innovare: servono visione, metodo e coraggio.

La comunità scientifica applaude perché riconosce strumenti concreti: spiegabilità, gestione dell’incertezza e logiche multi-agente assiomatizzate. Pilastri di un futuro digitale in cui macchine e uomini potranno davvero collaborare.

L’AI non è solo una questione di big data e potenza di calcolo. Da Montreal arriva un’altra lezione: il futuro sarà delle macchine che sanno spiegarsi, che accettano i propri limiti e che rendono trasparenti le loro decisioni.

Non una vittoria accademica, ma una provocazione globale: l’intelligenza (artificiale) non è questione di dimensioni, ma di consapevolezza.


Articoli correlati