Takaisin

Keskustelua juuri julkaistusta WWDC24:stä - Siri ja Apple Intelligence

By Sean Chen, 11. kesäkuuta 2024

wwdc24

Apple on juuri julkaissut uusimman Apple Intelligencen, joka sisältää ominaisuuksia kuten kirjoittaminen, puhe tekstiksi ja yhteenveto, älykäs vastaaminen, kirjoitustyökalut, kuvien tai emojien luominen ja mikä tärkeintä, tekee Siristä entistä lähempänä todellista ääniavustajaa.

Aluksi vaikuttaa siltä, että Apple esittelee jälleen kerran ominaisuuksia, jotka Androidilla on ollut jo pitkään.

Kuitenkin, kun näkee seuraavan sukupolven Sirin, voi tuntea Applen vahvan suunnittelu- ja integrointikyvyn omissa tuotteissaan.

Ei pelkästään GPT-4o:n käyttöä

Julkaisun Keynote ja verkkosivuston tiedot eivät viittaa siihen, että Apple Intelligence perustuisi pelkästään GPT-4o-malliin. Käytettävissä olevien laitteiden, kuten A17 Pro ja M-sarjan laitteiston perusteella, näyttää siltä, että Apple on sisällyttänyt laitteisiin pieniä kielimalleja tai erityiskäyttöön tarkoitettuja kuvamalleja. Samalla käytetään uusinta Private Cloud Compute -teknologiaa, joka mahdollistaa Apple Intelligencen tai Sirin käytön pilvipohjaisilla suurilla kielimalleilla yksityisyyttä suojaten.

Vaikuttaa siltä, että tämänkertainen generatiivinen kielimalli on Applen erityisesti puhelimissa usein käytettyihin tilanteisiin kouluttama uusi malli. OpenAI:n kanssa yhteistyössä kehitettyä GPT-4o-mallia käytetään vain edistyneemmissä tilanteissa, kuten monimutkaisten loogisten kysymysten esittämisessä. Tämä mahdollistaa Sirin taustalla olevan tekoälyn keskittymisen Applen tuotteiden käyttökokemuksen parantamiseen, jolloin malli on keskittyneempi ja kevyempi. Eri palveluiden yhdistäminen vähentää Applen painetta kilpailla GenAI:n kanssa ja samalla vastaa suoraan Microsoft Copilotin GenAI Chatbot -integraatioon käyttöjärjestelmässä.

Suuren kielimallin kehittämisessä Apple ei näytä tavoittelevan LLM Benchmark -vertailuja, vaan keskittyy tuotteeseen itseensä, jolloin LLM palvelee tuotetta eikä pelkästään LLM:n suorituskykyä ja multimodaalisia kykyjä.

Kuitenkin vuoden 2024 loppuun mennessä vain englanninkielinen AI Siri on saatavilla, ja vanhemmat laitteet tai ei-englanninkieliset käyttäjät voivat käyttää vain vanhaa Siriä ilman LLM-tukea. Tässä suhteessa Apple on edelleen jäljessä pääkilpailijoista, kuten OpenAI, Microsoft tai Google, ja muiden kielten tukeminen näyttää olevan vielä matkan päässä.

Kokonaisuudessaan käyttökokemuksessa Apple on edelleen edellä kilpailijoitaan.

ChatBotista ChatBot+:aan ja kokemukseen

Tällä hetkellä muut LLM-markkinoiden pääpelaajat, kuten OpenAI:n ChatGPT, ovat ChatBot-tasolla, ja ChatGPT:n laajentaminen on mahdollista vain myymällä API:ta kehittäjille. Googlen Gemeni ja Microsoftin PC:n Copilot ovat tällä hetkellä ChatBot+-tasolla, mikä tarkoittaa, että ChatBot on integroitu ulkoisiin toimintoihin, mutta ne ovat edelleen markkinoiden todennäköisimpiä LLM-syväintegraation toteuttajia. Muut laitevalmistajat, kuten Samsung ja Asus, näyttävät pysyvän 'toiminto'-tasolla, kuten kuvahaku, reaaliaikainen käännös, AI-kuvankäsittely tai kuvahaku.

Applen Apple Intelligencen osalta näyttää siltä, että LLM-palvelut on nostettu 'kokemus'-tasolle, jolloin AI on todella 'relevantti'. Kun 'relevantti' on saavutettu, käyttäjän käytettävissä olevien tilanteiden tai toimintojen määrä kasvaa merkittävästi, jopa rajattomasti, ja AI-avustajan ihanne voidaan todella toteuttaa. Yhteenvetona voidaan todeta, että Applen vahvassa ekosysteemissä muut kielimallit ovat vaikeasti kilpailukykyisiä Applen 'LLM:n syväintegraation käyttäjän elämään' kanssa, ja odotamme, että tulevaisuudessa kaikki LLM:t integroituvat syvällisemmin käyttäjän elämän tilanteisiin.

LISÄÄ BLOGISTAMME

Ota yhteyttä

OTA YHTEYTTÄ

Keskustellaan ideoistasi!

Käynnistä liiketoimintasi innovatiivisen digitaalisen kumppanin kanssa. Vastaamme yhden arkipäivän kuluessa. (GMT+8)