Apple เปิดตัวฟังก์ชัน Apple Intelligence ชุดแรกเมื่อคืนนี้ ผ่านเวอร์ชันเบต้าของ iOS 18.1 และ macOS Sequoia 15.1 สำหรับนักพัฒนา ในเวลาเดียวกัน ผู้ผลิตยังได้เผยแพร่รายงานการวิจัยที่เผยให้เห็นมุมหนึ่งของเทคนิคที่พัฒนาขึ้นสำหรับ Apple Intelligence
ฟังก์ชั่นต่างๆแอปเปิ้ลอัจฉริยะจะไม่เผยแพร่สู่สาธารณะด้วย iOS 18 และ macOS Sequoia เวอร์ชันสุดท้าย คุณจะต้องรอระบบปฏิบัติการ iPhone และ iPad เวอร์ชัน 18.1 และ macOS 15.1 สำหรับ Mac เมื่อวาน,ผู้ผลิตได้แสดงตัวอย่างสิ่งที่รอคอยผู้ใช้ในพื้นที่นี้อย่างน้อยที่สุดผู้ที่ไม่ได้อาศัยอยู่ในยุโรปจะถูกลิดรอนไปอย่างน้อยก็จนถึงสิ้นปี-
เบื้องหลังโมเดล Apple Foundation
Apple ไม่เพียงแต่ส่งมอบเบต้าของไอโอเอส 18.1และ macOS 15.1 ทางบริษัทก็มีที่ตีพิมพ์รายงานทางเทคนิคใหม่ที่เผยให้เห็นหลายสิ่งที่น่าสังเกต เริ่มต้นด้วยความจริงที่ว่าโมเดลภาษาที่พัฒนาขึ้นสำหรับ Apple Intelligence ได้ถูกจัดกลุ่มภายใต้คำว่า "Apple Foundation Model" (AFM)

มีการพัฒนาสองรุ่น: "AFM-on-device" ซึ่งออกแบบมาเพื่อทำงานภายในอุปกรณ์และมีพารามิเตอร์ 3 พันล้านพารามิเตอร์ ซึ่งก็ประมาณว่าสอดคล้องกันราศีเมถุนนาโน-2(3.25 พันล้านพารามิเตอร์) ซึ่งสามารถใช้ได้ภายในเครื่องด้วย รุ่นที่สอง “เซิร์ฟเวอร์ AFM” ดังที่ชื่อระบุ มีจุดประสงค์เพื่อใช้บนเซิร์ฟเวอร์ในขณะที่เคารพกรอบการรักษาความลับของ Private Cloud Compute
ลีร์Apple เปิดตัว Private Cloud Compute ซึ่งเป็นโซลูชันสำหรับ AI ที่จะเคารพความเป็นส่วนตัวของคุณ
ทั้งสองโมเดลนี้ได้รับประโยชน์จากการฝึกอบรมเบื้องต้นขั้นพื้นฐาน เช่น การฝึกอบรมเบื้องต้นจากชุดข้อมูล "คุณภาพสูง": ข้อมูลที่ได้รับอนุญาต โค้ดจากแหล่งเก็บข้อมูลโอเพ่นซอร์สบน GitHub ชุดข้อมูลที่สาธารณะสามารถเข้าถึงได้ด้วยใบอนุญาต... หรือแม้แต่เว็บแบบเปิด สร้างความผิดหวังให้กับสำนักพิมพ์รายย่อยผู้ซึ่งไม่มีส่วนได้เสียในการปล้นสะดมครั้งใหญ่นี้-
Apple อธิบายว่าการฝึกอบรมนี้ดำเนินการบนคลัสเตอร์ TPU (Tensor Processing Unit) ดังนั้นจึงดำเนินการบนชิปของ Google นี่เป็นเรื่องที่น่าประหลาดใจเมื่อรู้ว่าส่วนที่ดีของอุตสาหกรรม เช่น OpenAI, Microsoft, Anthropic นั้นต้องอาศัย GPU ของ Nvidia Google, Meta และแม้แต่ Oracle ได้มาเพื่อพัฒนาระบบ AI ของตัวเอง Apple เลือก Google อาจเป็นเพราะ Nvidia ซึ่งเป็นที่ต้องการอย่างมากไม่มี GPU ที่จะขายให้กับ Apple!
AFM-on-device ซึ่งเป็นรุ่นท้องถิ่นได้รับการฝึกอบรมเกี่ยวกับชิป TPU v5p จำนวน 2,048 ชิ้น ซึ่งเป็นเวอร์ชันล่าสุดที่เปิดตัวเมื่อเดือนธันวาคมปีที่แล้ว การฝึกอบรมเซิร์ฟเวอร์ AFM ดำเนินการกับชิป TPU v4 จำนวน 8,192 ตัว (ซึ่งย้อนกลับไปในปี 2021) โดยไม่รู้ว่า Apple สามารถควบคุมชิปเหล่านี้ได้อย่างสมบูรณ์หรือไม่ แต่ถ้า Google ผลิตชิป AI ของตัวเอง เสิร์ชเอ็นจิ้นก็จะเป็นลูกค้ารายใหญ่ของ Nvidia ซึ่งยังไม่เป็นเช่นนั้น (อย่างน้อยก็ไม่ใช่) ของ Apple สำหรับโมเดล AI ที่สร้างขึ้น
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-