ย้อนกลับ

พูดคุยเกี่ยวกับการเปิดตัว WWDC24 - Siri กับ Apple Intelligence

By Sean Chen, 11 มิถุนายน 2024

wwdc24

Apple เพิ่งเปิดตัว Apple Intelligence ล่าสุด ซึ่งมีฟีเจอร์การเขียน, การแปลงเสียงเป็นข้อความและสรุป, การตอบกลับอัจฉริยะ, เครื่องมือการเขียน, การสร้างภาพหรืออีโมจิ และที่สำคัญที่สุดคือทำให้ Siri ใกล้เคียงกับการเป็นผู้ช่วยเสียงจริงๆ มากขึ้น

ในขณะที่แนะนำเครื่องมือไม่กี่อย่างแรก ดูเหมือนว่า Apple จะใช้วิธีการเดิมๆ ในการแนะนำฟีเจอร์ที่ Android มีมานานแล้ว

แต่เมื่อเห็น Siri รุ่นถัดไป จะรู้สึกถึงความสามารถในการออกแบบและการรวมผลิตภัณฑ์ของ Apple ที่แข็งแกร่ง

ไม่ใช่แค่การใช้ GPT-4o ตามที่คาดการณ์

จาก Keynote และข้อมูลบนเว็บไซต์ ไม่ได้ใช้ GPT-4o เป็นโมเดลของ Apple Intelligence อย่างที่คาดการณ์ไว้ จากอุปกรณ์ที่ใช้ได้ A17 Pro และฮาร์ดแวร์ M Series ดูเหมือนว่า Apple ใส่โมเดลภาษาขนาดเล็กหรือโมเดลการสร้างภาพเฉพาะในอุปกรณ์ และใช้เทคโนโลยี Private Cloud Compute ล่าสุดเพื่อให้ Apple Intelligence หรือ Siri ใช้โมเดลภาษาขนาดใหญ่บนคลาวด์ภายใต้เงื่อนไขการรักษาความเป็นส่วนตัว

ดูเหมือนว่าโมเดลภาษาที่สร้างขึ้นในครั้งนี้เป็นโมเดลใหม่ที่ Apple ฝึกฝนเฉพาะสำหรับสถานการณ์ที่ใช้บ่อยในมือถือ และโมเดล GPT-4o ที่ร่วมมือกับ OpenAI ใช้ในสถานการณ์ที่ซับซ้อนมากขึ้น เช่น การถามคำถามเชิงตรรกะที่ซับซ้อน ซึ่งทำให้ AI ที่อยู่เบื้องหลัง Siri มุ่งเน้นไปที่การปรับปรุง "ประสบการณ์การใช้ผลิตภัณฑ์ Apple" ทำให้โมเดลนี้มุ่งเน้นและเบาลง การผสมผสานบริการต่างๆ ช่วยลดแรงกดดันของ Apple ในการตาม GenAI และยังเผชิญหน้ากับ Microsoft Copilot ที่รวมฟังก์ชัน GenAI Chatbot ใน OS โดยตรง

ในเส้นทางการพัฒนาโมเดลภาษาขนาดใหญ่ Apple ดูเหมือนจะไม่มุ่งเน้นไปที่การไล่ตาม LLM Benchmark ต่างๆ แต่กลับมุ่งเน้นที่ผลิตภัณฑ์เอง ทำให้บริการ LLM เป็นผลิตภัณฑ์ ไม่ใช่แค่การไล่ตามประสิทธิภาพและความสามารถหลายโหมดของ LLM

อย่างไรก็ตาม ก่อนสิ้นปี 2024 จะเห็น AI Siri ที่รองรับภาษาอังกฤษเท่านั้น อุปกรณ์รุ่นเก่าหรือผู้ใช้ที่ไม่ใช่ภาษาอังกฤษดูเหมือนจะยังคงใช้ Siri รุ่นเก่าที่ไม่รองรับ LLM ซึ่งในแง่ของการแข่งขันโมเดลภาษาขนาดใหญ่ Apple ยังล้าหลังเป้าหมายหลักเช่น OpenAI, Microsoft หรือ Google และดูเหมือนว่าจะยังมีระยะทางในการรองรับภาษาอื่นๆ (หรือทำให้ความแม่นยำของภาษาอื่นๆ ถึงมาตรฐาน)

แต่โดยรวมแล้ว ในแง่ของ "ประสบการณ์การใช้" ยังคงนำหน้าคู่แข่งในปัจจุบัน

จาก "ChatBot" ถึง "ChatBot+" ถึง "ประสบการณ์"

ในตลาด LLM ปัจจุบัน ผู้เล่นหลัก: ChatGPT ของ OpenAI ยังคงอยู่ในระดับ "ChatBot" ซึ่งต้องพึ่งพาการขาย API ให้กับนักพัฒนาเพื่อทำการรวม Google Gemeni และ Copilot บน PC ของ Microsoft ยังอยู่ในระดับ "ChatBot+" ซึ่งเป็นการรวมฟังก์ชันภายนอกเพิ่มเติม แต่ยังคงเป็นผู้เล่นที่มีโอกาสมากที่สุดในการรวม LLM อย่างลึกซึ้ง ผู้ผลิตฮาร์ดแวร์รายอื่นเช่น Samsung และ ASUS ความสามารถ AI ดูเหมือนจะยังคงอยู่ในขั้น "ฟังก์ชัน" เช่น การค้นหาภาพ, การแปลทันที, การแก้ไขภาพ AI หรือการค้นหาภาพ

สำหรับ Apple Intelligence ของ Apple ดูเหมือนว่าจะยกระดับบริการ LLM ไปสู่ระดับ "ประสบการณ์" ทำให้ AI ทำงานได้อย่าง "เกี่ยวข้อง" (relavent) ภายใต้เงื่อนไขที่ทำให้ "เกี่ยวข้อง" ผู้ใช้สามารถใช้สถานการณ์หรือฟังก์ชันได้มากขึ้นอย่างมาก จนเกือบจะไม่มีที่สิ้นสุด และสามารถทำให้ความฝันของ AI ผู้ช่วยเป็นจริงได้ สรุปแล้ว ภายใต้ระบบนิเวศที่แข็งแกร่งของ Apple โมเดลภาษาของผู้อื่นแม้จะแข็งแกร่งก็ยากที่จะสั่นคลอนความสามารถในการแข่งขันของ Apple ในการ "รวม LLM เข้ากับชีวิตผู้ใช้" และหวังว่าในอนาคต LLM ของแต่ละบริษัทจะสามารถรวมเข้ากับสถานการณ์ชีวิตของผู้ใช้ได้อย่างลึกซึ้งยิ่งขึ้น

บทความอื่น ๆ จากบล็อกของเรา

ติดต่อเรา

ติดต่อเรา

มาคุยเกี่ยวกับไอเดียของคุณกันเถอะ!

เริ่มต้นธุรกิจของคุณกับพาร์ทเนอร์ดิจิทัลที่สร้างสรรค์ เราจะตอบกลับภายใน 1 วันทำการ (GMT+8)