Apple consentirà per la prima volta a milioni di sviluppatori di app di accedere ai propri modelli di intelligenza artificiale. L’iniziativa mira a sfruttare l’ampio ecosistema hardware e software dell’azienda per ottenere un vantaggio competitivo rispetto ai principali rivali del settore. Un passo atteso, che però arriva con una certa cautela.
Durante l’annuale conferenza per sviluppatori, la WWDC, Apple ha evitato gli annunci roboanti che avevano contraddistinto edizioni precedenti. L’evento di quest’anno si è concentrato su un restyling dei sistemi operativi e su una serie di aggiornamenti incrementali delle funzionalità AI, piuttosto che su novità rivoluzionarie.
Indice degli argomenti:
Tim Cook: “Vogliamo sfruttare la potenza dell’Apple Intelligence”
Il CEO Tim Cook ha dichiarato che l’obiettivo dell’azienda è quello di “sfruttare la potenza dell’Apple Intelligence”, facendo riferimento all’aggiornamento AI del software, presentato per la prima volta nel corso dell’evento dell’anno scorso.
Gli sviluppatori potranno iniziare a testare le nuove funzionalità software, mentre il rilascio completo per i consumatori è previsto per l’autunno. Le nuove funzioni AI saranno disponibili esclusivamente sui modelli recenti di iPhone.

Nuove esperienze intelligenti nelle app quotidiane
Craig Federighi, responsabile software di Apple, ha sottolineato che l’apertura dei modelli AI agli sviluppatori di terze parti “darà il via a una nuova ondata di esperienze intelligenti nelle app su cui gli utenti fanno affidamento ogni giorno”.
I modelli AI operano localmente sui dispositivi Apple, eliminando la necessità di connessioni a server cloud o reti. Secondo l’azienda, questo approccio rappresenta un vantaggio sostanziale in termini di privacy e sicurezza.
Federighi ha fatto alcuni esempi pratici: un’app di enigmistica potrà creare quiz personalizzati basandosi sulle note salvate dall’utente sul proprio dispositivo; un’app per escursionisti sarà in grado di suggerire sentieri anche in assenza di connessione, adattandosi alle preferenze personali dell’utente.
Funzionalità disponibili e ambito di utilizzo
L’accesso ai modelli AI sarà inizialmente limitato a quelli di dimensioni ridotte, ottimizzati per l’elaborazione locale e funzioni come il riassunto di testi.
Da tempo gli analisti si interrogano su come Apple possa integrare e monetizzare le funzionalità AI all’interno dell’App Store, che secondo le stime della Bank of America ha generato oltre 30 miliardi di dollari di ricavi nel 2024. Una possibile direzione potrebbe essere quella di proporre funzionalità AI “premium” all’interno delle app, su cui Apple tratterrebbe una percentuale, come già avviene per gli acquisti digitali effettuati tramite App Store.
Apple Intelligence: tutte le novità del nuovo framework AI per esperienze intelligenti e locali
Apple apre nuovi orizzonti con il lancio del Foundation Models framework, che permette agli sviluppatori di integrare funzionalità di intelligenza artificiale direttamente nei dispositivi, senza necessità di connessione Internet. Dalle scorciatoie intelligenti a Genmoji personalizzati, passando per il riconoscimento visivo e la generazione d’immagini, ecco tutte le innovazioni presentate nella piattaforma Apple Intelligence.
Foundation Models Framework: l’AI intelligente, privata e locale
Il Foundation Models framework permette agli sviluppatori di creare esperienze intelligenti che rispettano la privacy e funzionano anche senza connessione a Internet.
Grazie al supporto nativo per Swift, bastano appena tre righe di codice per sfruttare le potenzialità del modello. Il framework consente di implementare funzionalità come estrazione di testo, riassunto dei contenuti, generazione guidata, tool calling e molto altro, integrandole con semplicità all’interno di app e giochi esistenti.
Le nuove funzionalità AI di Apple Intelligence
- Traduzioni in tempo reale: disponibili in Messaggi, FaceTime e durante le chiamate, con supporto audio e testo.
- Genmoji e Image Playground: strumenti per creare immagini personalizzate combinando emoji, testo e input dell’utente.
- Comandi rapidi intelligenti: suggerimenti di azioni contestuali basati sull’uso del dispositivo.
- Riconoscimento dei contenuti sullo schermo: per aggiungere eventi al calendario o cercare oggetti simili online .
Apple WWDC 2025: Visual Intelligence, lo schermo diventa un motore di ricerca
La Visual Intelligence di Apple estende le capacità del dispositivo non solo alla fotocamera, ma anche allo schermo dell’iPhone. Gli utenti possono cercare, compiere azioni o porre domande sui contenuti visualizzati premendo gli stessi tasti utilizzati per fare uno screenshot.
Grazie all’integrazione con App Intents, le app possono collegarsi direttamente alla visual intelligence per permettere ricerche visive sui contenuti a schermo o sugli oggetti fisici circostanti
App Intents e Shortcuts: automazioni sempre più intelligenti
La nuova Apple Intelligence potenzia l’app Shortcuts, introducendo azioni intelligenti che possono essere combinate tra loro. Tramite App Intents, le azioni e le entità delle app possono essere integrate con strumenti come Writing Tools, Image Playground e una nuova funzione chiamata Use Model, che permette l’accesso diretto ai modelli AI sul dispositivo o tramite Private Cloud Compute.
Questo permette, ad esempio, di ottenere una risposta AI personalizzata da utilizzare all’interno di una scorciatoia automatizzata.
Genmoji: emoji su misura, ispirate a persone reali
Con la funzione Genmoji, gli utenti possono mescolare le emoji preferite con descrizioni testuali per creare nuove combinazioni visive. È possibile personalizzare anche l’aspetto dei Genmoji ispirati a familiari e amici, modificando elementi come il taglio di capelli per riflettere il loro look più recente.
Image Playground: generazione di immagini più espressiva e connessa
Image Playground, l’ambiente di generazione immagini ispirate alle persone, è stato ulteriormente potenziato. Gli utenti possono cambiare le espressioni facciali dei soggetti per adattarle al contesto e sperimentare nuovi stili anche attraverso l’integrazione con ChatGPT.
Apple WWDC 2025: traduzione vocale e “Visual Search” tra le novità
Apple introdurrà anche la traduzione vocale in tempo reale per chiamate e messaggi, sfruttando modelli AI che operano localmente sul dispositivo dell’utente. Altre novità includono aggiornamenti per la funzionalità “Visual Search”, che ora sarà in grado di interagire con i contenuti visualizzati sullo schermo.
Grazie a questi aggiornamenti, sarà possibile ad esempio aggiungere un evento al calendario direttamente da un’immagine o accedere a un’app di terze parti che vende un prodotto visualizzato sul display. Una funzionalità simile, denominata “circle to search” e basata su modelli Google, era stata presentata da Samsung all’inizio dello scorso anno.
Apple WWDC 2025: Liquid Glass, il più ampio aggiornamento estetico ai sistemi operativi Apple
Parallelamente, Apple ha annunciato anche un’operazione di redesign che coinvolgerà l’intera gamma di sistemi operativi, definendolo come “il più ampio aggiornamento estetico del software mai realizzato”. Il nuovo look, chiamato “Liquid Glass”, trae ispirazione dall’interfaccia del sistema operativo Vision Pro.
I limiti del rollout e le sfide con Siri e il mercato cinese
Nonostante l’entusiasmo per le nuove aperture, restano alcune ombre. Gli investitori temono che Apple possa rimanere indietro nella corsa tecnologica rispetto a concorrenti come Google, Samsung e Huawei, tutti impegnati nello sviluppo di “smartphone AI”.
Il primo rollout di Apple Intelligence ha già incontrato degli ostacoli. L’assistente vocale Siri, nella sua versione più avanzata e conversazionale annunciata nel 2023, non è ancora disponibile. Durante l’evento non è stata fatta alcuna menzione dell’aggiornamento, considerato fondamentale per l’accesso a funzionalità AI veramente “agentiche” sugli iPhone.
Inoltre, l’azienda sta incontrando difficoltà in Cina, dove l’instabilità geopolitica ha impedito l’introduzione delle nuove funzionalità in un mercato chiave, già messo a dura prova dalla crescente concorrenza dei player locali.
Xcode 26: nasce l’IDE con intelligenza artificiale integrata
Durante la conferenza WWDC 2025, Apple ha presentato Xcode 26, nuova versione del suo ambiente di sviluppo per app, introducendo un’integrazione diretta con ChatGPT, il modello generativo di OpenAI. La novità permette agli sviluppatori di sfruttare l’AI per scrivere codice, documentazione, test, iterare design, correggere errori e altro ancora.
Oltre a ChatGPT, Xcode 26 supporta anche modelli AI di altri provider, che possono essere integrati tramite API key, aprendo così l’ambiente Apple alla pluralità del mondo AI.
ChatGPT integrato, anche senza account
L’integrazione con ChatGPT non richiede un account per l’uso base: gli sviluppatori possono interagire con il modello direttamente all’interno dell’interfaccia di Xcode. Gli utenti paganti di ChatGPT hanno la possibilità di collegare il proprio account per ottenere limiti d’uso più elevati e risposte più rapide.
Attraverso strumenti avanzati, i programmatori possono generare anteprime di codice, ricevere suggerimenti in tempo reale o delegare task ripetitivi al modello. In questo modo, Xcode si trasforma da semplice ambiente di sviluppo a partner intelligente per l’ingegneria del software.
Supporto per altri modelli AI tramite API
Apple non limita la novità a ChatGPT: con Xcode 26 è possibile integrare anche modelli AI alternativi forniti da terze parti. Grazie al supporto delle API key, gli sviluppatori possono connettere i propri provider di fiducia e ricevere suggerimenti personalizzati, adattati al linguaggio, alla struttura e ai flussi della propria applicazione.
Questa apertura rappresenta un cambio di passo significativo per Apple, storicamente più chiusa verso l’integrazione con servizi esterni.
Partnership mancata con Anthropic e la scelta di ChatGPT
Nelle settimane precedenti alla WWDC 2025, circolavano indiscrezioni secondo cui Apple fosse al lavoro su un software di sviluppo “vibrazionale” in collaborazione con Anthropic, startup nota per il modello Claude. Tuttavia, la scelta finale è ricaduta su ChatGPT, segno della fiducia accordata da Apple all’ecosistema OpenAI per questa fase iniziale di integrazione AI nello sviluppo software.
Reazioni tiepide dal mercato e dagli analisti
“Osserviamo che non è stata annunciata alcuna espansione in Cina né la disponibilità di alcune funzioni di Apple Intelligence”, tra cui l’upgrade di Siri, hanno scritto gli analisti di UBS in un report successivo alla conferenza, aggiungendo che le funzionalità presentate erano “in linea con le nostre aspettative più prudenti”.
Dan Ives, analista di Wedbush e sostenitore del potenziale di Apple nel settore AI, ha definito l’evento come “una noia”, affermando che l’azienda sta “giocando sul sicuro” dopo gli errori commessi lo scorso anno.
Unificazione delle versioni dei sistemi operativi
Apple ha deciso di uniformare la numerazione dei suoi sistemi operativi, adottando l’anno di rilascio come identificativo. Avremo quindi iOS 26, iPadOS 26, macOS 26 (denominato “Tahoe”), watchOS 26, tvOS 26 e visionOS 26. Questa scelta mira a semplificare la comprensione delle versioni sia per gli utenti che per gli sviluppatori .
iOS 26: nuove funzionalità per iPhone
Con iOS 26, Apple introduce:
- Filtri anti-spam per le chiamate: la funzione “Call Screening” utilizza la segreteria in diretta per rispondere automaticamente a chiamate da numeri sconosciuti.
- Filtri per i messaggi: possibilità di filtrare i messaggi da mittenti sconosciuti in Messaggi.
- Aggiornamenti per le app native: Fotocamera semplificata, Foto con navigazione a due pannelli e Safari con miglioramenti nell’uso dello spazio a schermo .
macOS 26 “Tahoe”: un Mac più produttivo e intelligente
macOS 26, denominato “Tahoe”, presenta un design rinnovato e una maggiore integrazione con gli altri dispositivi Apple. Tra le novità:
- Aggiornamento di Spotlight: miglioramenti nella ricerca e nelle funzionalità.
- Capacità estese di Apple Intelligence: nuove funzionalità AI integrate nel sistema operativo .
watchOS 26 e tvOS 26: benessere e intrattenimento
watchOS 26 introduce un nuovo design e l’integrazione di Apple Intelligence per migliorare l’esperienza di allenamento con “Workout Buddy”. tvOS 26 porta un redesign su Apple TV, con l’interfaccia “Liquid Glass” e la funzione Apple Music Sing, che consente agli utenti di cantare con gli amici utilizzando l’iPhone .