Alcuni chatbot di AI si basano su articoli scientifici ritirati senza avvisare gli utenti. Ricerche condotte da università statunitensi e confermate dal MIT Technology Review hanno dimostrato che ChatGPT, Elicit, Consensus e altri strumenti citano paper non più validi come se fossero affidabili, raramente segnalando la ritrattazione. Le conseguenze sono gravi: il pubblico può ricevere consigli medici o informazioni scientifiche fuorvianti, mentre studenti e ricercatori rischiano di costruire analisi su basi corrotte. Il problema deriva da una combinazione di fattori: la mancanza di database completi e aggiornati sulle ritrattazioni, l’assenza di standard univoci da parte degli editori e l’uso di dati di training non aggiornati.
analisi
AI e ricerca scientifica: il rischio “articoli ritirati” si annida nei chatbot
Studi recenti mostrano che strumenti di intelligenza artificiale, da ChatGPT ad applicazioni specializzate per la ricerca, utilizzano contenuti tratti da articoli scientifici ritirati. Una falla che mette in dubbio l’affidabilità delle risposte e solleva interrogativi per il futuro della ricerca basata sull’AI
Management Consultant, Trainer, Startup Advisor

Continua a leggere questo articolo
Argomenti
Canali





