Nell’aggiornamento iOS 26.4 in arrivo questa primavera, Apple introdurrà una nuova versione di Siri che rivoluzionerà il modo in cui interagiamo con l’assistente personale e le sue capacità.
La versione di Siri in iOS 26.4 non funzionerà come ChatGPT o Claude, ma si baserà su modelli di linguaggio di grandi dimensioni (LLM) ed è stata aggiornata da zero.
Architettura Aggiornata
La prossima generazione di Siri utilizzerà avanzati modelli di linguaggio di grandi dimensioni, simili a quelli utilizzati da ChatGPT, Claude e Gemini. Apple non implementerà interazioni complete da chatbot, ma qualsiasi aggiornamento è migliore di ciò che è attualmente disponibile e molto atteso.
Attualmente, Siri utilizza l’apprendimento automatico, ma non ha le capacità di ragionamento che i modelli LLM offrono. Siri si basa su più modelli specifici per completare una richiesta, passando da un passaggio all’altro. Deve determinare l’intento di una richiesta, estrarre informazioni rilevanti (un orario, un evento, un nome, ecc.) e quindi utilizzare API o app per completare la richiesta. Non è un sistema tutto-in-uno.
In iOS 26.4, Siri avrà un nucleo LLM attorno al quale sarà costruito tutto il resto. Invece di limitarsi a tradurre la voce in testo e cercare parole chiave da eseguire, Siri comprenderà effettivamente i dettagli di ciò che un utente sta chiedendo e utilizzerà il ragionamento per portarlo a termine.
Miglioramenti LLM
Siri oggi è generalmente adeguata per compiti semplici come impostare un timer o un allarme, inviare un messaggio di testo, attivare o disattivare un dispositivo smart home, rispondere a una domanda semplice o controllare una funzione del dispositivo, ma non comprende nulla di più complicato, non può completare compiti a più fasi, non può interpretare formulazioni che non seguono la struttura desiderata, non ha contesto personale e non supporta domande di follow-up.
Un LLM dovrebbe risolvere la maggior parte di questi problemi perché Siri avrà qualcosa di simile a un cervello. I LLM possono comprendere le sfumature di una richiesta, capire cosa vuole realmente qualcuno e compiere i passi necessari per fornire quell’informazione o completare l’azione richiesta.
Funzionalità Promesse di Apple Intelligence per Siri
Apple ha descritto tre modi specifici in cui Siri migliorerà, inclusi il contesto personale, la capacità di vedere cosa c’è sullo schermo per sapere di cosa sta parlando l’utente e la capacità di fare di più all’interno e tra le app.
- Siri comprenderà pronomi, riferimenti ai contenuti sullo schermo e nelle app, e avrà una memoria a breve termine per le richieste di follow-up.
Contesto Personale
Con il contesto personale, Siri sarà in grado di tenere traccia di email, messaggi, file, foto e altro, imparando di più su di te per aiutarti a completare compiti e tenere traccia di ciò che ti è stato inviato.
- Mostrami i file che Eric mi ha inviato la settimana scorsa.
- Trova l’email in cui Eric ha menzionato il pattinaggio sul ghiaccio.
- Trova i libri che Eric mi ha raccomandato.
- Dove si trova la ricetta che mi ha inviato Eric?
- Qual è il mio numero di passaporto?
Consapevolezza dello Schermo
La consapevolezza dello schermo permetterà a Siri di vedere cosa c’è sul tuo schermo e completare azioni relative a ciò che stai guardando. Se qualcuno ti invia un indirizzo, ad esempio, puoi dire a Siri di aggiungerlo alla scheda contatto. Oppure, se stai guardando una foto e vuoi inviarla a qualcuno, puoi chiedere a Siri di farlo per te.
Integrazione Più Profonda con le App
L’integrazione più profonda con le app significa che Siri sarà in grado di fare di più all’interno e tra le app, eseguendo azioni e completando compiti che attualmente non sono possibili con l’assistente personale. Non abbiamo un quadro completo di ciò che Siri sarà in grado di fare, ma Apple ha fornito alcuni esempi di cosa aspettarsi.
- Spostare file da un’app all’altra.
- Modificare una foto e poi inviarla a qualcuno.
Un Aggiornamento Maggiore del Promesso
In una riunione generale nell’agosto 2025, il capo dell’ingegneria software di Apple, Craig Federighi, ha spiegato il problema di Siri ai dipendenti. Apple aveva tentato di unire due sistemi separati, che non ha funzionato.
C’era un sistema per gestire i comandi attuali e un altro basato su modelli di linguaggio di grandi dimensioni, e l’approccio ibrido non ha funzionato a causa dei limiti dell’architettura attuale di Siri. L’unico modo per andare avanti era aggiornare all’architettura di seconda generazione costruita attorno a un modello di linguaggio di grandi dimensioni.
Nella riunione di agosto, Federighi ha affermato che Apple aveva rivisitato con successo Siri e che sarebbe stata in grado di introdurre un aggiornamento più grande di quanto promesso in iOS 18.
Adottando Google Gemini
Parte del problema di Apple era che si stava affidando a modelli di intelligenza artificiale sviluppati internamente, che non erano in grado di eguagliare le capacità dei concorrenti. Apple ha iniziato a considerare l’utilizzo di un modello di terze parti per Siri e altre future funzionalità di intelligenza artificiale poco dopo aver ritardato Siri, e a gennaio, Apple ha annunciato una partnership pluriennale con Google.
Per il prossimo futuro, le funzionalità di intelligenza artificiale di Apple, inclusa la versione più personalizzata di Siri, utilizzeranno un modello personalizzato costruito in collaborazione con il team di Google Gemini. Apple prevede di continuare a lavorare sui propri modelli interni, ma per ora si affiderà a Gemini per molte funzionalità rivolte al pubblico.
Siri in iOS 26.4 sarà più simile a Google Gemini rispetto a Siri oggi, anche se senza capacità complete da chatbot. Apple prevede di continuare a eseguire alcune funzionalità sul dispositivo e utilizzare il Private Cloud Compute per mantenere la privacy. Apple manterrà i dati personali sul dispositivo, anonimizzando le richieste e continuando a consentire la disattivazione delle funzionalità di intelligenza artificiale.
Cosa Non Arriverà in iOS 26.4
Siri non funzionerà come un chatbot, quindi la versione aggiornata non presenterà memoria a lungo termine o conversazioni a più fasi, e Apple prevede di utilizzare la stessa interfaccia basata sulla voce con funzionalità di digitazione limitate.
Il Ritardo Imbarazzante di Siri
In quella che è diventata una mossa infelice, Apple ha puntato tutto nel mostrare una versione più intelligente e potenziata da Apple Intelligence di Siri quando ha introdotto iOS 18 alla Worldwide Developers Conference 2024. Apple ha affermato che queste funzionalità sarebbero arrivate in un aggiornamento di iOS 18, ma proprio quando ci si aspettava il lancio, Apple ha ammesso che Siri non era pronta e sarebbe stata ritardata fino alla primavera 2026.
Apple ha promesso che la nuova versione di Siri arriverà nella primavera del 2026, che è quando ci aspettiamo iOS 26.4. I test su iOS 26.4 dovrebbero iniziare a fine febbraio o inizio marzo, con un lancio previsto intorno ad aprile.
Compatibilità di LLM Siri
La nuova versione di Siri funzionerà presumibilmente su tutti i dispositivi che supportano Apple Intelligence, anche se Apple non ha fornito dettagli espliciti. Alcune nuove funzionalità di Siri potrebbero arrivare anche su dispositivi più vecchi.
Aggiornamento Chatbot in iOS 27
Apple prevede di aggiornare Siri ulteriormente nell’aggiornamento iOS 27, trasformando Siri in un chatbot. Siri funzionerà come Claude o ChatGPT, in grado di comprendere e impegnarsi in conversazioni a più fasi.
Dettagli sull’interfaccia di Siri e su come funzionerà una versione chatbot di Siri sono ancora scarsi, ma iOS 26.4 sarà una tappa nel percorso verso una versione di Siri in grado di funzionare effettivamente come i prodotti di Anthropic e OpenAI.

