Siamo di fronte a una nuova frontiera del rischio tecnologico, causata dalla facilità con cui è possibile utilizzare modelli di intelligenza artificiale detti abliterated. Questi modelli sono versioni che forniscono risposte senza alcun filtro, anche su argomenti gravemente rischiosi. Il pericolo principale non risiede nella possibilità tecnica in sé, ma nella scala e nell’accessibilità di strumenti potentissimi, privi di barriere etiche, anche per chi non possiede alcuna competenza tecnica.
WHITE PAPER CEFRIEL
L’AI “democratizza” il cybercrime: allarme sui modelli abliterated e uncensored
Il rilascio di modelli di AI open-weight ha innescato una nuova crisi di sicurezza: le versioni modificate, dette abliterated, rimuovono ogni filtro etico e forniscono risposte dettagliate su attività rischiose. Questi sistemi, accessibili a tutti e installabili in locale, stanno “democratizzando” capacità offensive avanzate, rendendo la sicurezza digitale e sociale una sfida epocale e sottovalutata

Continua a leggere questo articolo
Argomenti
Canali





