รับแอปรับแอป

Apple เตรียมดัน “Visual Intelligence” เป็นหัวใจของ AI Wearables รุ่นใหม่

Phanuphong.T02-24

Apple อาจกำลังเข้าสู่ยุคใหม่ของอุปกรณ์สวมใส่อัจฉริยะ โดยมี “Visual Intelligence” เป็นแกนกลางสำคัญ ตามรายงานล่าสุดจาก Mark Gurman แห่ง Bloomberg ที่ระบุว่า ฟีเจอร์นี้จะมีบทบาทหลักในอุปกรณ์ AI Wearables รุ่นถัดไปของบริษัท

อุปกรณ์ที่ถูกพูดถึงมีตั้งแต่ แว่นตาอัจฉริยะ (Smart Glasses), AI Pin แบบติดเสื้อ ไปจนถึง AirPods รุ่นใหม่ที่มาพร้อมกล้อง

แม้หลายอย่างยังไม่เปิดตัวอย่างเป็นทางการ แต่ทิศทางเริ่มชัดว่า Apple ต้องการให้ AI เข้าใจ “สิ่งที่ผู้ใช้มองเห็น” มากขึ้น ไม่ใช่แค่สิ่งที่พิมพ์หรือพูด


Visual Intelligence คืออะไร?

ปัจจุบัน Visual Intelligence ใช้งานได้บน iPhone 15 Pro ขึ้นไป โดยให้ผู้ใช้ใช้กล้องเพื่อ:

  • เรียนรู้ข้อมูลเกี่ยวกับสถานที่และวัตถุรอบตัว

  • สรุปข้อความ

  • อ่านออกเสียง

  • แปลภาษา

  • ค้นหาสิ่งของผ่าน Google

  • ถามคำถามผ่าน ChatGPT

เรียกง่าย ๆ ว่า เป็นการใช้กล้องร่วมกับ AI เพื่อทำความเข้าใจโลกจริงแบบเรียลไทม์


ทำไม Tim Cook ถึงพูดถึงบ่อย?

Gurman ชี้ว่า คำพูดของ Tim Cook ในช่วงหลังเริ่มมีแพทเทิร์นคล้ายกับตอนที่เขาเคยปูทางก่อนเปิดตัว Apple Watch (เน้นเซ็นเซอร์สุขภาพ) และ Apple Vision Pro (เน้น AR)

ล่าสุด Cook ยก Visual Intelligence ว่าเป็นหนึ่งในฟีเจอร์ยอดนิยมที่สุดของ Apple Intelligence และช่วยให้ผู้ใช้ “ค้นหา ทำงาน และตอบคำถามได้เร็วขึ้นในทุกแอป”

การที่ซีอีโอหยิบฟีเจอร์นี้มาพูดบ่อย อาจสะท้อนว่า Apple กำลังเร่งพัฒนาอุปกรณ์ที่พึ่งพาความสามารถด้านนี้อย่างจริงจัง


Smart Glasses: คู่แข่ง Meta Ray-Ban

แว่นตาอัจฉริยะของ Apple ถูกคาดว่าจะ:

  • มีกล้องความละเอียดสูงสำหรับถ่ายภาพและวิดีโอ

  • มีกล้องอีกตัวสำหรับส่งข้อมูลภาพให้ Siri วิเคราะห์

  • ให้ AI เข้าใจบริบทแวดล้อมแบบเรียลไทม์

มีรายงานว่า Apple ตั้งเป้าเปิดตัวในปี 2027 และอาจเริ่มการผลิตช่วงปลายปี 2026

หากเป็นจริง แว่นตารุ่นนี้จะชนตรงกับ Meta Ray-Ban อย่างชัดเจน


AI Pin: อุปกรณ์เล็ก แต่กล้องเปิดตลอดเวลา?

อีกหนึ่งอุปกรณ์ที่ถูกพูดถึงคือ AI Pin

จุดเด่นตามรายงานคือ:

  • มีกล้องความละเอียดต่ำ

  • ไม่เน้นถ่ายภาพหรือวิดีโอ

  • ใช้เพื่อให้ AI “มองเห็น” สิ่งรอบตัวตลอดเวลา

อย่างไรก็ตาม โครงการนี้ยังอยู่ช่วงต้น และมีโอกาสถูกยกเลิกได้ หากไม่ผ่านเกณฑ์ภายในของ Apple


AirPods รุ่นใหม่ พร้อมกล้อง

มีรายงานว่า AirPods รุ่นอนาคตจะมีกล้องความละเอียดต่ำฝังอยู่

หน้าที่หลักคือ:

  • ให้ข้อมูลภาพแก่ AI

  • เข้าใจบริบทแวดล้อม

  • ช่วย Siri ตอบคำถามได้แม่นยำขึ้น

ไม่ใช่เพื่อถ่ายรูป แต่เพื่อ “รับรู้สภาพแวดล้อม”

AirPods รุ่นที่มีกล้องอาจมาเร็วที่สุดภายในปีนี้


ความท้าทาย: ความเป็นส่วนตัว

การมีอุปกรณ์ที่:

  • มีกล้องเปิดตลอดเวลา

  • วิเคราะห์สิ่งแวดล้อมแบบเรียลไทม์

ย่อมกระทบประเด็นความเป็นส่วนตัวโดยตรง

Apple มีจุดขายด้าน Privacy มาตลอด ดังนั้นการผสาน Visual Intelligence กับ AI Wearables ต้องจัดการเรื่องนี้อย่างรอบคอบ


Apple กำลังเร่งเกม AI หรือไม่?

แม้ Visual Intelligence จะอาศัยเทคโนโลยีจาก OpenAI และ Google บางส่วน แต่ Gurman เชื่อว่า Apple จะไม่ผลักดันฟีเจอร์นี้หนักขนาดนี้ หากไม่มีแผนเร่งเครื่องในเร็ว ๆ นี้

ภาพรวมชี้ว่า:

  • Apple Intelligence จะขยายจาก iPhone ไปสู่อุปกรณ์สวมใส่

  • AI จะไม่ได้อยู่แค่ในหน้าจอ แต่จะรับรู้โลกจริง

  • อุปกรณ์ใหม่จะทำงานร่วมกันใน ecosystem เดียว


สรุป: ยุคใหม่ของ AI ที่ “มองเห็นโลกจริง”

Visual Intelligence กำลังถูกวางตำแหน่งให้เป็นแกนหลักของอุปกรณ์ AI Wearables ของ Apple

อุปกรณ์ที่ถูกพูดถึง ได้แก่:

  • Smart Glasses (เป้า 2027)

  • AI Pin (ยังไม่แน่นอน)

  • AirPods มีกล้อง (อาจมาเร็วสุด)

หากทุกอย่างเป็นไปตามแผน Apple จะไม่ใช่แค่บริษัทฮาร์ดแวร์ แต่จะเป็นผู้สร้างระบบ AI ที่เชื่อมโลกดิจิทัลกับโลกจริงอย่างแนบเนียน

คำถามสำคัญคือ ผู้ใช้พร้อมแค่ไหนกับอุปกรณ์ที่ “มองเห็น” ทุกอย่างรอบตัวตลอดเวลา