Indietro

Parliamo del recente WWDC24 - Siri con Apple Intelligence

By Sean Chen, 11 Giugno 2024

wwdc24

Apple ha appena lanciato il nuovo Apple Intelligence, che include funzionalità come scrittura, conversione vocale in testo e riassunti, risposte intelligenti, strumenti di scrittura, generazione di immagini o emoji, e soprattutto, rende Siri più vicino a un vero assistente vocale.

All'inizio, presentando i primi strumenti, sembra che Apple stia nuovamente introducendo funzionalità già presenti su Android, senza grandi novità.

Ma quando si vede la nuova generazione di Siri, si percepisce la forte capacità di design e integrazione di Apple nei suoi prodotti.

Non è solo l'uso di GPT-4o come si pensava

Dalle informazioni del Keynote e del sito ufficiale, non sembra che Apple Intelligence utilizzi semplicemente GPT-4o come modello. Guardando i dispositivi compatibili come A17 Pro e la serie M, sembra che Apple abbia integrato modelli di linguaggio o di generazione di immagini specifici nei dispositivi. Utilizza anche la sua ultima tecnologia Private Cloud Compute per permettere a Apple Intelligence o Siri di utilizzare modelli di linguaggio avanzati nel cloud, garantendo la privacy.

Sembra che il modello di linguaggio generativo sia stato addestrato specificamente per scenari comuni sui telefoni. Il modello GPT-4o, in collaborazione con OpenAI, è utilizzato solo in contesti più avanzati, come domande logiche complesse. Questo permette all'AI dietro Siri di concentrarsi sull'ottimizzazione dell'esperienza d'uso dei prodotti Apple, rendendo il modello più focalizzato e leggero. La combinazione di diversi servizi riduce la pressione su Apple nel competere con GenAI e affronta direttamente le funzionalità di Microsoft Copilot integrate nel sistema operativo.

Nello sviluppo di modelli di linguaggio avanzati, Apple sembra concentrarsi non tanto sui benchmark LLM, ma piuttosto sul miglioramento del prodotto stesso, facendo sì che i servizi LLM servano il prodotto, invece di inseguire semplicemente le prestazioni LLM e le capacità multimodali.

Tuttavia, entro la fine del 2024, solo l'AI Siri in inglese sarà disponibile, mentre i dispositivi più vecchi o gli utenti non anglofoni dovranno continuare a utilizzare la versione precedente di Siri senza supporto LLM. In questo senso, Apple è ancora indietro rispetto a OpenAI, Microsoft o Google nella corsa ai modelli di linguaggio avanzati, e sembra che ci sia ancora strada da fare per supportare altre lingue o raggiungere la precisione desiderata in altre lingue.

Nel complesso, però, l'esperienza d'uso rimarrà superiore rispetto ai concorrenti attuali.

Da "ChatBot" a "ChatBot+" a "Esperienza"

Attualmente, i principali attori nel mercato LLM, come ChatGPT di OpenAI, sono ancora a livello di "ChatBot" e devono vendere API agli sviluppatori per integrazioni. Google Gemeni e Microsoft Copilot su PC sono a livello di "ChatBot+", integrando alcune funzionalità esterne, ma sono ancora i più probabili a raggiungere un'integrazione profonda con LLM. Altri grandi produttori di hardware come Samsung e Asus sembrano ancora essere fermi alla fase "funzionalità", come ricerca di immagini, traduzione in tempo reale, fotoritocco AI o ricerca di immagini.

Per quanto riguarda Apple Intelligence, sembra che abbia portato i servizi LLM al livello di "esperienza", rendendo l'AI veramente "rilevante". Con questa rilevanza, il numero di scenari o funzionalità che gli utenti possono utilizzare aumenterà notevolmente, avvicinandosi all'infinito, realizzando così l'ideale dell'assistente AI. In sintesi, sotto il potente ecosistema Apple, anche i modelli di linguaggio più forti difficilmente possono competere con la capacità di Apple di integrare profondamente LLM nella vita degli utenti. Ci si aspetta che in futuro i vari LLM possano integrarsi più profondamente nei contesti di vita degli utenti.

ALTRO DAL NOSTRO BLOG

Contattaci

CONTATTACI

Parliamo delle tue idee!

Avvia la tua attività con il tuo partner digitale innovativo. Risponderemo entro un giorno lavorativo. (GMT+8)