By Sean Chen, 11 Giugno 2024
Apple ha appena lanciato il nuovo Apple Intelligence, che include funzionalità come scrittura, conversione vocale in testo e riassunti, risposte intelligenti, strumenti di scrittura, generazione di immagini o emoji, e soprattutto, rende Siri più vicino a un vero assistente vocale.
All'inizio, presentando i primi strumenti, sembra che Apple stia nuovamente introducendo funzionalità già presenti su Android, senza grandi novità.
Ma quando si vede la nuova generazione di Siri, si percepisce la forte capacità di design e integrazione di Apple nei suoi prodotti.
Dalle informazioni del Keynote e del sito ufficiale, non sembra che Apple Intelligence utilizzi semplicemente GPT-4o come modello. Guardando i dispositivi compatibili come A17 Pro e la serie M, sembra che Apple abbia integrato modelli di linguaggio o di generazione di immagini specifici nei dispositivi. Utilizza anche la sua ultima tecnologia Private Cloud Compute per permettere a Apple Intelligence o Siri di utilizzare modelli di linguaggio avanzati nel cloud, garantendo la privacy.
Sembra che il modello di linguaggio generativo sia stato addestrato specificamente per scenari comuni sui telefoni. Il modello GPT-4o, in collaborazione con OpenAI, è utilizzato solo in contesti più avanzati, come domande logiche complesse. Questo permette all'AI dietro Siri di concentrarsi sull'ottimizzazione dell'esperienza d'uso dei prodotti Apple, rendendo il modello più focalizzato e leggero. La combinazione di diversi servizi riduce la pressione su Apple nel competere con GenAI e affronta direttamente le funzionalità di Microsoft Copilot integrate nel sistema operativo.
Nello sviluppo di modelli di linguaggio avanzati, Apple sembra concentrarsi non tanto sui benchmark LLM, ma piuttosto sul miglioramento del prodotto stesso, facendo sì che i servizi LLM servano il prodotto, invece di inseguire semplicemente le prestazioni LLM e le capacità multimodali.
Tuttavia, entro la fine del 2024, solo l'AI Siri in inglese sarà disponibile, mentre i dispositivi più vecchi o gli utenti non anglofoni dovranno continuare a utilizzare la versione precedente di Siri senza supporto LLM. In questo senso, Apple è ancora indietro rispetto a OpenAI, Microsoft o Google nella corsa ai modelli di linguaggio avanzati, e sembra che ci sia ancora strada da fare per supportare altre lingue o raggiungere la precisione desiderata in altre lingue.
Nel complesso, però, l'esperienza d'uso rimarrà superiore rispetto ai concorrenti attuali.
Attualmente, i principali attori nel mercato LLM, come ChatGPT di OpenAI, sono ancora a livello di "ChatBot" e devono vendere API agli sviluppatori per integrazioni. Google Gemeni e Microsoft Copilot su PC sono a livello di "ChatBot+", integrando alcune funzionalità esterne, ma sono ancora i più probabili a raggiungere un'integrazione profonda con LLM. Altri grandi produttori di hardware come Samsung e Asus sembrano ancora essere fermi alla fase "funzionalità", come ricerca di immagini, traduzione in tempo reale, fotoritocco AI o ricerca di immagini.
Per quanto riguarda Apple Intelligence, sembra che abbia portato i servizi LLM al livello di "esperienza", rendendo l'AI veramente "rilevante". Con questa rilevanza, il numero di scenari o funzionalità che gli utenti possono utilizzare aumenterà notevolmente, avvicinandosi all'infinito, realizzando così l'ideale dell'assistente AI. In sintesi, sotto il potente ecosistema Apple, anche i modelli di linguaggio più forti difficilmente possono competere con la capacità di Apple di integrare profondamente LLM nella vita degli utenti. Ci si aspetta che in futuro i vari LLM possano integrarsi più profondamente nei contesti di vita degli utenti.
I termini "URL" e "dominio" possono sembrare simili, ma sono tutt'altro che uguali! Cosa succede realmente quando inserisci google.com nel tuo browser? E come sono correlati dominio e URL? Questo articolo ti guiderà a comprenderli in modo chiaro e pratico!
LEGGI DI PIÙQuando viaggi all'estero e non riesci mai a ricordare quanto hai speso, e sei troppo pigro per digitare le spese, devi assolutamente provare questa app super utile: 'Parla e Segna'.
LEGGI DI PIÙL'ordinazione self-service è diventata il primo passo quando entriamo in un ristorante, diventando un elemento fondamentale della nostra esperienza culinaria. Se aggiungiamo un tocco di elementi interessanti, come un assistente vocale AI, l'ordinazione potrebbe diventare più intuitiva, divertente e persino più umana!
LEGGI DI PIÙCONTATTACI
Parliamo delle tue idee!
Avvia la tua attività con il tuo partner digitale innovativo. Risponderemo entro un giorno lavorativo. (GMT+8)