I grandi modelli di AI generativa hanno ormai raggiunto alti standard di qualità e una diversità elevata, spaziando in vari domini e adottando stili differenti. Tuttavia, insieme a queste capacità sorprendenti, emergono sfide inedite e rischi significativi in termini di sicurezza, che mettono in discussione tanto l’aspetto tecnico quanto quello etico.
CONNESSIONI SINTETICHE
Masterkey, un’AI per hackerare le protezioni dei LLM
Un framework per il jailbreaking automatizzato dei chatbot basati su Large Language Models (LLM), impiegato per superare i meccanismi di difesa utilizzati nei servizi di AI conversazionali, come GPT-3.5, GPT-4, Bard e Bing Chat

Continua a leggere questo articolo
Argomenti
Canali



