By Sean Chen, 11 juin 2024
Apple vient de dévoiler le tout nouveau Apple Intelligence, qui inclut des fonctionnalités telles que l'écriture, la conversion de la voix en texte et le résumé, la réponse intelligente, les outils d'écriture, la génération d'images ou d'emojis, etc., et surtout, rendre Siri plus proche d'un véritable assistant vocal.
Lors de la présentation des premiers outils, cela ressemblait à une nouvelle démonstration de la stratégie d'Apple consistant à introduire des fonctionnalités déjà présentes sur Android, sans grand impact.
Mais en découvrant la prochaine génération de Siri, on ressent à nouveau la puissance du design et de l'intégration des produits Apple.
D'après le Keynote et les informations du site officiel, il ne s'agit pas simplement d'utiliser GPT-4o comme modèle pour Apple Intelligence, contrairement aux suppositions initiales. En regardant les appareils compatibles comme l'A17 Pro et les séries M, il semble qu'Apple ait intégré un petit modèle linguistique ou un modèle de génération d'images spécifique dans les appareils. En même temps, ils utilisent leur dernière technologie Private Cloud Compute pour permettre à Apple Intelligence ou Siri d'utiliser un grand modèle linguistique dans le cloud tout en garantissant la confidentialité.
Il semble que ce modèle linguistique génératif soit un nouveau modèle spécialement entraîné pour les scénarios courants sur mobile. Le modèle GPT-4o, en collaboration avec OpenAI, est utilisé uniquement pour des scénarios plus avancés, comme poser des questions logiques complexes. Cela permet également à l'IA derrière Siri de se concentrer davantage sur l'amélioration de "l'expérience utilisateur des produits Apple", rendant ce modèle plus ciblé et plus léger. La combinaison de différents services réduit la pression sur Apple pour rattraper GenAI, tout en affrontant directement la fonctionnalité de chatbot GenAI intégrée dans l'OS de Microsoft Copilot.
Dans le développement des grands modèles linguistiques, Apple semble viser à revenir à l'essence du produit, en permettant aux services LLM de servir le produit, plutôt que de simplement poursuivre la performance et la capacité multimodale des LLM.
Cependant, d'ici la fin de 2024, seul l'AI Siri en anglais sera disponible. Les anciens appareils ou les utilisateurs non anglophones devront continuer à utiliser l'ancienne version de Siri sans support LLM. En ce sens, dans la course aux grands modèles linguistiques, Apple reste derrière des acteurs majeurs comme OpenAI, Microsoft ou Google, et il semble qu'il y ait encore un chemin à parcourir pour supporter d'autres langues (ou pour atteindre la précision requise dans d'autres langues).
Mais globalement, en termes "d'expérience utilisateur", Apple restera en avance sur ses concurrents actuels.
Parmi les principaux acteurs actuels du marché des LLM : ChatGPT d'OpenAI reste au niveau "ChatBot", et pour évoluer, il doit vendre des API aux développeurs pour intégration. Gemeni de Google et Copilot de Microsoft sur PC sont actuellement au niveau "ChatBot+", c'est-à-dire un ChatBot avec quelques intégrations supplémentaires de fonctionnalités externes, mais ils restent les plus susceptibles de réaliser une intégration profonde des LLM. D'autres grands fabricants de matériel comme Samsung et Asus semblent encore être au stade "fonctionnalité", par exemple : recherche d'images, traduction en temps réel, retouche photo AI ou recherche d'images.
En ce qui concerne Apple Intelligence, il semble avoir élevé le service LLM au niveau "expérience", permettant à l'IA d'atteindre une véritable "pertinence" (relevance). Avec cette pertinence, le nombre de scénarios ou de fonctionnalités utilisables par l'utilisateur augmentera considérablement, voire tendra vers l'infini, réalisant ainsi véritablement l'idéal de l'assistant AI. En résumé, sous l'écosystème puissant d'Apple, même les modèles linguistiques les plus puissants auront du mal à ébranler la compétitivité d'Apple pour "intégrer profondément les LLM dans la vie des utilisateurs", et nous espérons que les futurs LLM pourront s'intégrer plus profondément dans les contextes de vie des utilisateurs.
Les termes « URL » et « domaine » se ressemblent un peu, mais ils sont différents ! Que se passe-t-il lorsque vous tapez google.com dans votre navigateur ? Comment cela est-il lié aux domaines et aux URL ? Cet article vous expliquera tout de manière claire et pratique !
EN SAVOIR PLUSSi vous faites partie de ceux qui oublient toujours combien ils ont dépensé en voyage et qui sont trop paresseux pour noter leurs dépenses, vous devez absolument essayer cette application super pratique — « SaySay Expense ».
EN SAVOIR PLUSLa commande en libre-service est devenue notre première étape en entrant dans un restaurant et un élément clé de notre expérience culinaire. Si nous ajoutons des éléments amusants, comme un assistant vocal IA, la commande pourrait devenir plus intuitive, amusante et même plus humaine !
EN SAVOIR PLUSCONTACTEZ-NOUS
Parlons de vos idées !
Donnez un coup de pouce à votre entreprise avec votre partenaire digital innovant. Nous vous répondrons sous un jour ouvré. (GMT+8)