Con GPT-5.3-Codex, OpenAI introduce il suo modello di ragionamento più avanzato in ambito cibernetico. L’evoluzione è significativa: dai sistemi capaci di completare poche righe di codice si è passati a modelli in grado di operare autonomamente per ore o giorni, affrontando compiti complessi.
Queste capacità promettono di accelerare in modo sostanziale l’individuazione e la risoluzione delle vulnerabilità, rafforzando la sicurezza dell’intero ecosistema digitale. Tuttavia, la stessa potenza tecnologica può introdurre nuovi rischi se utilizzata in modo improprio.
Indice degli argomenti:
Un accesso “affidabile” per ridurre gli abusi
Per bilanciare opportunità e rischi, OpenAI avvia il programma pilota Trusted Access for Cyber, un framework basato su identità e fiducia. L’obiettivo è chiaro: mettere le capacità informatiche più avanzate nelle mani di professionisti impegnati nella difesa, riducendo al minimo la possibilità di utilizzi dannosi.
Il progetto si inserisce in un approccio più ampio all’uso responsabile dei modelli altamente capaci, puntando a favorire la protezione senza abbassare le barriere contro comportamenti vietati.
Più strumenti ai difensori digitali
OpenAI sottolinea l’urgenza di adottare rapidamente strumenti informatici all’avanguardia per migliorare la sicurezza del software e consolidare le best practice. Modelli avanzati possono aiutare organizzazioni di ogni dimensione a:
- rafforzare il livello di sicurezza;
- ridurre i tempi di risposta agli incidenti;
- aumentare la resilienza contro attacchi mirati e sofisticati.
Secondo l’azienda, l’impatto potenziale è sistemico: innalzare il livello di base della difesa informatica in tutto l’ecosistema tecnologico globale.
L’ambiguità tra difesa e attacco
Uno dei nodi centrali riguarda la difficoltà di distinguere tra utilizzi legittimi e dannosi. Una richiesta come “trova vulnerabilità nel mio codice” può rappresentare un’attività di correzione responsabile oppure un tentativo di sfruttare falle di sicurezza.
Storicamente, le restrizioni pensate per prevenire abusi hanno talvolta ostacolato il lavoro in buona fede dei professionisti della sicurezza. Trusted Access for Cyber nasce per ridurre questi attriti, mantenendo però solide misure di prevenzione contro esfiltrazione di dati, creazione o diffusione di malware e test distruttivi non autorizzati.
Verifica dell’identità e controlli automatici
I modelli di frontiera come GPT-5.3-Codex sono addestrati a rifiutare richieste chiaramente dannose, ad esempio legate al furto di credenziali. A questo si affiancano sistemi di monitoraggio automatico basati su classificatori, progettati per intercettare segnali di attività sospette.
Gli utenti possono verificare la propria identità qui: chatgpt.com/cyber. Le aziende possono richiedere l’accesso fidato per l’intero team in modalità predefinita attraverso il loro referente OpenAI, mentre ricercatori e gruppi di sicurezza possono candidarsi a un programma esclusivo su invito. In ogni caso, restano vincolanti le politiche di utilizzo e le condizioni d’uso.
Dieci milioni di dollari per accelerare la difesa
A rafforzare l’iniziativa arriva un impegno concreto: 10 milioni di dollari in crediti API destinati al Cybersecurity Grant Program. L’obiettivo è sostenere team con comprovata esperienza nell’identificazione e nella correzione di vulnerabilità, in particolare nel software open source e nelle infrastrutture critiche.
Con Trusted Access for Cyber, OpenAI punta così a un equilibrio delicato: potenziare la difesa informatica globale, mantenendo al contempo un controllo rigoroso sugli usi delle tecnologie più avanzate.






