RICERCA

AI che negoziano: i modelli più avanzati ottengono risultati migliori



Indirizzo copiato

Una nuova ricerca rivela che nei negoziati tra intelligenze artificiali, i modelli meno avanzati tendono a ottenere risultati peggiori, con conseguenze economiche concrete per gli utenti. La qualità dell’agente AI potrebbe diventare un nuovo fattore di disuguaglianza digitale, soprattutto se i negoziati automatizzati diventeranno la norma nelle transazioni finanziarie

Pubblicato il 23 giu 2025



ai che negoziano

L’industria dell’AI si sta spostando dalla corsa alla potenza computazionale pura verso lo sviluppo di agenti autonomi, capaci di agire, decidere e negoziare in nome e per conto dell’utente. Ma cosa succede quando in una trattativa il compratore e il venditore sono entrambi rappresentati da un’intelligenza artificiale?

Una nuova ricerca pubblicata su arXiv (University of Toronto, Google DeepMind, University of Southern California, Massachusetts Institute of Technology, Stanford University), ha simulato trattative tra agenti AI, rivelando che i modelli più avanzati riescono sistematicamente a ottenere accordi più vantaggiosi. Al contrario, i modelli meno potenti perdono valore nelle transazioni, a scapito dell’utente. È come andare in tribunale con un avvocato inesperto contro uno di lunga data: il sistema è formalmente equo, ma nella sostanza sbilanciato.


Modelli più potenti, affari migliori: nasce una nuova disuguaglianza

I ricercatori, tra cui Jiaxin Pei della Stanford University, hanno evidenziato un effetto sistematico: le AI con maggiore capacità di ragionamento, addestrate su dataset migliori e dotate di più parametri, ottengono risultati economicamente superiori. Questo potrebbe amplificare una nuova forma di disuguaglianza digitale: “Nel tempo, il successo finanziario potrebbe dipendere meno dalle abilità umane e più dalla forza del proprio proxy AI”, spiega Pei.

Se le interazioni tra agenti digitali dovessero diventare la norma nelle transazioni commerciali, si aprirebbe un divario tra chi ha accesso a tecnologie più sofisticate e chi no. Un rischio concreto di polarizzazione, in cui l’AI diventa un moltiplicatore di disuguaglianze preesistenti.


La prova sul campo: tre mercati, diversi livelli di successo

L’esperimento ha messo alla prova diversi modelli AI in ruoli di compratori e venditori in tre mercati simulati: elettronica, veicoli e immobili. I venditori ricevevano informazioni su caratteristiche del prodotto, costo all’ingrosso e prezzo consigliato, con l’obiettivo di massimizzare il profitto. I compratori, invece, avevano un budget, requisiti ideali e il prezzo retail, e dovevano cercare di abbassare il prezzo.

I risultati? Il modello ChatGPT-o3 di OpenAI è stato il più efficace nel complesso, seguito da GPT-4.1 e o4-mini. GPT-3.5, il più datato tra quelli testati, ha ottenuto le performance peggiori sia come venditore che come acquirente. Altri modelli come DeepSeek R1 e V3 si sono comportati bene, soprattutto nel ruolo di venditore. Qwen2.5, il modello open source usato da Alibaba, ha mostrato qualche segnale positivo come compratore, ma è rimasto indietro nel complesso.

AI che negoziano
Sinistra: Price Reduction Rate sia per l’acquirente che per il venditore. I modelli situati nella regione in alto a destra mostrano una performance negoziale relativa più forte, caratterizzata da una maggiore capacità di spingere i prezzi al ribasso quando agiscono come acquirenti e di mantenere prezzi più elevati quando agiscono come venditori, riflettendo il potere contrattuale complessivo.
Destra: tasso di profitto relativo, tasso di transazione e profitti totali degli agenti venditori.

AI che negoziano
I modelli Qwen con più parametri ottengono condizioni migliori sia come venditori che come acquirenti quando
negoziano tra loro (a sinistra) e DeepSeek-R1 (a destra).

Errori, loop e trattative fallite: i limiti degli agenti

Oltre alle perdite economiche, i ricercatori hanno osservato un comportamento problematico: alcune AI cadevano in loop negoziali infiniti senza mai raggiungere un accordo, oppure abbandonavano prematuramente le trattative, anche quando erano incentivate a ottenere il miglior affare possibile. “Il risultato ci ha sorpreso: pensiamo che i LLM siano molto affidabili, ma nei contesti critici possono fallire in modo imprevedibile”, ha detto Pei.

I motivi di queste differenze non sono del tutto chiari. Oltre alla dimensione del modello, fattori come la qualità dei dati di addestramento, la capacità di inferenza e le strategie interne possono incidere notevolmente sull’esito della trattativa.


Non basta il picco: serve valutare anche il rischio

Questa ricerca si inserisce in un filone crescente che mette in guardia sull’uso reale degli agenti AI per decisioni finanziarie. Un altro studio recente, firmato da ricercatori di diverse università, sostiene che gli LLM dovrebbero essere valutati non solo in base alla massima performance, ma anche al profilo di rischio. Secondo gli autori, un fallimento dell’1% in un sistema finanziario automatizzato può generare conseguenze sistemiche.

Per questo, propongono di sottoporre gli agenti AI a stress test prima del rilascio operativo, valutando non solo quanto bene funzionino, ma anche come gestiscono gli errori e le situazioni avverse.

AI che negoziano
Media P RR Acquirente di tutti i modelli con diverse impostazioni di budget. Gli agenti acquirenti sono più
propensi a negoziare condizioni migliori con impostazioni di budget ridotte.

Dalla teoria al mercato: i primi esempi di AI acquirente

Alcuni strumenti di acquisto basati su AI stanno già entrando nel mercato. Ad aprile, Amazon ha lanciato Buy for Me, un assistente AI che aiuta i clienti a trovare prodotti su altri siti quando non sono disponibili su Amazon. Anche Alibaba ha sviluppato un assistente per l’approvvigionamento, chiamato Accio, che aiuta le imprese a cercare fornitori e confrontare offerte.

Ma mentre il price negotiation è raro nell’e-commerce al dettaglio, è più diffuso nel B2B. E qui la questione diventa delicata. Alibaba, infatti, ha dichiarato di non voler automatizzare la contrattazione sui prezzi per ora, proprio per evitare i rischi connessi.


Il consiglio: l’AI come supporto, non sostituto

Pei e colleghi suggeriscono che i consumatori dovrebbero considerare gli assistenti AI come strumenti informativi, non come sostituti per prendere decisioni economiche complesse. “Non credo che siamo pronti a delegare pienamente le decisioni agli agenti AI”, conclude Pei. “Meglio usarli come consulenti, non come negoziatori.”

Il messaggio è chiaro: l’AI può diventare un potente alleato, ma anche un rischio nascosto. In un’epoca in cui l’efficienza algoritmica può fare (o disfare) un affare, la consapevolezza resta la prima difesa.

Articoli correlati