Siri ตัวใหม่ยังอีกไกลกว่าจะ “ฉลาดจริง” เลื่อนอัปเกรด Siri ครั้งใหญ่ หันพึ่ง AI ภายนอก Anthropic - OpenAI - Google ก่อน สัญญาณเปลี่ยนทิศทาง ขัดกับหลักการเดิมที่ Apple ยึดถือมาตลอด
Apple กำลังอยู่ในขั้นตอนการเจรจากับ Google ในการนำ “Gemini” โมเดล AI มาช่วยขับเคลื่อน Siri เวอร์ชันใหม่ ต่อเนื่องจากก่อนหน้านี้ที่เคยพูดคุยกับ Anthropic และ OpenAI เพื่อนำ “Claude” หรือ “ChatGPT” มาใช้ในการพัฒนาระบบเบื้องหลัง Siri ซึ่งถือเป็นอีกครั้งกับการพึ่งพา AI จากภายนอก หลังการเปิดตัวถูกเลื่อนออกไปเพราะอุปสรรคทางวิศวกรรมและปัญหาภายในองค์กร
สำนักข่าวบลูมเบิร์กอ้างอิงแหล่งข่าวใกล้ชิดโดยระบุว่า Apple ได้เข้าหารือกับ Google เพื่อพัฒนาโมเดล AI แบบปรับแต่งเฉพาะที่อาจกลายเป็นรากฐานของ Siri รุ่นถัดไปในปีหน้า แม้ทั้งสองจะเป็นคู่แข่งกันทั้งในตลาดสมาร์ตโฟน ระบบปฏิบัติการ และ AI แต่ทั้งสองยังมีความร่วมมือด้าน Search ที่ Google ยังต้องจ่ายเงินหลายพันล้านดอลลาร์สหรัฐต่อปีเพื่อใช้เป็นเสิร์ชเอนจินหลักบนอุปกรณ์ Apple
เดิมที Apple วางแผนเปิดตัว Siri รุ่นใหม่ในช่วงสิ้นปีที่ผ่านมา แต่โครงการกลับถูกเลื่อนออกไปเพราะเจออุปสรรคด้านวิศวกรรม ส่งผลให้ John Giannandrea หัวหน้าฝ่าย AI ถูกถอดออกจากการดูแล Siri และโยกมาที่ Craig Federighi หัวหน้าฝ่ายซอฟต์แวร์ และ Mike Rockwell ผู้สร้าง Vision Pro แทน
โดยที่ผ่านมา Anthropic เคยถูกมองว่าเป็นตัวเต็ง แต่เงื่อนไขทางการเงินทำให้ Apple ต้องหันไปพูดคุยกับผู้เล่นรายอื่นเพิ่มเติม อย่างไรก็ตาม Apple ยังไม่ตัดสินใจว่าจะใช้โมเดลภายในของตนเองต่อไปหรือจะหันไปจับมือกับพาร์ตเนอร์รายใด แม้การตัดสินใจดังกล่าวอาจสวนทางกับแนวทางดั้งเดิมของ Apple ที่ต้องการพัฒนาและควบคุม AI เองบนอุปกรณ์เพื่อความเป็นส่วนตัวและปลอดภัย
ปัจจุบัน Apple เริ่มทดสอบโมเดลภายในที่มีขนาด 1 ล้านล้านพารามิเตอร์ (trillion-parameter) ซึ่งใหญ่กว่ารุ่น 150,000 ล้านพารามิเตอร์ที่ใช้งานอยู่ในศูนย์ข้อมูล แต่ยังคงตามหลังคู่แข่งอย่าง OpenAI ที่ก้าวไปถึงระดับหลายล้านล้านพารามิเตอร์แล้ว ทั้งนี้รายงานระบุอีกว่า โมเดลใหม่นี้จะถูกใช้ในงานวิจัยเป็นหลัก และยังไม่มีแผนปล่อยสู่ผู้ใช้ทั่วไปในเร็ว ๆ นี้
อ่านเพิ่มเติม
Apple วางแผนออก Siri รุ่นอัปเกรดในเดือนพฤษภาคมที่ผ่านมาเพื่อแก้ไขระบบปัจจุบัน แต่ก็ยังไม่ใช่การปฏิวัติเต็มรูปแบบที่ผู้ใช้คาดหวัง โดยมีการประกาศว่ารุ่นสมบูรณ์เตรียมปล่อยออกมาใน iOS 19 พร้อมกับโครงการ “LLM Siri” ที่จะรวมทุกระบบเข้าด้วยกัน อย่างไรก็ตามรายงานภายในชี้ว่า Siri แบบโต้ตอบเต็มรูปแบบอาจไม่พร้อมใช้งานจนกว่าจะถึงปี 2027
ที่ผ่านมาสาเหตุความล่าช้าในการพัฒนา Siri เวอร์ชันใหม่เป็นผลจากความซับซ้อนในการรวมระบบเดิมที่เป็นผลจากการพัฒนาแบบปิด ซึ่งเป็นหลักการของ Apple ที่คำนึงเรื่องความเป็นส่วนตัวของข้อมูลผู้ใช้ ซึ่งต้องต่อรองกับความจำเป็นในการพัฒนาความฉลาดของ AI ที่ตามมาด้วยการแก้สถาปัตยกรรมเดิม
ผลพวงความล้มเหลวของ Siri เวอร์ชันใหม่ ตลอดจนการดำเนินงานด้าน AI ที่ล่าช้า ทำให้ที่ผ่านมา Apple ต้องร่วมมือกับ OpenAI ในการผสาน AI เข้ามาในระบบนิเวศของตนเองในปี 2024 เพื่ออุดช่องว่างด้าน AI ที่ยังไม่สมบูรณ์ของตนเอง ทำให้ ChatGPT กลายเป็นตัวเลือกสำรองเริ่มต้น ซึ่งทำให้คุณสมบัติที่ดีหลายอย่างของ Apple Intelligence ขับเคลื่อนโดย ChatGPT แทนที่จะเป็นผลงานของ Apple เอง
อย่างไรก็ตาม Siri เวอร์ชันใหม่ (ที่ขับเคลื่อนด้วย Apple Intelligence) ยังคงถูกจำกัดด้วยการพึ่งพาโมเดล AI ภายนอกอย่าง ChatGPT สำหรับคำสั่งซับซ้อน มีปัญหาในการประมวลผลคำสั่งหลายขั้นตอน ความเข้าใจเชิงนัยที่ยังไม่แม่นยำ รวมถึงประสิทธิภาพที่ไม่คงเส้นคงวาเมื่อเทียบกับผู้ช่วย AI ของคู่แข่งอย่าง Google Assistant อีกทั้งยังเผชิญกับความล่าช้าและบั๊กจำนวนมาก รวมถึงยังไม่รองรับทุกภาษาและภูมิภาค
แม้จะพัฒนาให้มีการโต้ตอบกับแอปและคุณภาพเสียงที่ดีขึ้น แต่ฟังก์ชันหลักของ Siri ยังคงจำกัด ทั้งในการค้นหาข้อมูลจากเว็บ หรือการสนทนาแบบต่อเนื่อง ความฉลาดที่เพิ่มขึ้นยังคงขึ้นอยู่กับเครื่องมือภายนอก ไม่ใช่การปฏิวัติสถาปัตยกรรมหลักของ Siri สำหรับผู้ใช้ทั่วไปอาจไม่ได้รับผลกระทบต่อการใช้งานประจำวัน แต่ช่องว่างระหว่าง Apple กับคู่แข่งกำลังขยายกว้างขึ้นเรื่อย ๆ โดยเฉพาะในยุคที่ AI กำลังนิยามการใช้งานอุปกรณ์เทคโนโลยีใหม่ทั้งหมด Apple ยังต้องเร่งสร้างโครงสร้างพื้นฐาน AI รวมถึงเพิ่มการลงทุนด้านชิปเฉพาะทาง และขณะเดียวกันที่ต้องเผชิญกับการสูญเสียบุคลากรสำคัญไปอยู่กับคู่แข่งต่อเนื่องจนเกิดคำถามต่อประสิทธิภาพผู้นำในทีม AI ซึ่งล้วนแล้วแต่เป็นอุปสรรคสำหรับแผนการพัฒนา AI ระยะยาว
ที่มาข้อมูล Bloomberg
ติดตามเพจ Facebook : Thairath Money ได้ที่ลิงก์นี้ -