แว่นตาที่เชื่อมต่อจาก Ray-Ban และ Meta จะได้รับผู้ช่วยที่ขับเคลื่อนโดยปัญญาประดิษฐ์ ผู้ใช้สามารถขอให้แปลข้อความ ระบุสัตว์และผลไม้ หรือแม้แต่อาคารได้ การเริ่มต้นที่ดูมีความหวัง จากการทดสอบเต็มรูปแบบครั้งแรก
เปิดตัวเมื่อเดือนกันยายนปีที่แล้วแว่นตาเชื่อมต่อรุ่นที่สองจาก Meta และ Ray-Banรู้วิธีการถ่ายภาพและเหนือสิ่งอื่นใด พวกเขาสามารถสตรีมวิดีโอได้ นอกจากนี้ ยังมีลำโพงที่รวมอยู่ในสาขาสำหรับการฟังเพลงหรือโทรศัพท์ ตั้งแต่เดือนเมษายน พวกเขาจะได้รับข่าวกรองจากการอัพเดตซอฟต์แวร์ครั้งใหญ่
ตัวช่วยที่ทำได้เกือบทุกอย่าง
Meta จะรวม AI ต่อเนื่องหลายรูปแบบเข้ากับแว่นตาเพื่อให้พวกเขาสามารถรับรู้ เข้าใจ และโต้ตอบกับสภาพแวดล้อมของผู้ใช้ได้ กล่าวอีกนัยหนึ่ง ต้องขอบคุณเซ็นเซอร์ภาพถ่าย พวกเขาจึงเห็นสิ่งที่คุณเห็น ดังนั้นจึงเป็นไปได้ที่จะขอให้ผู้ช่วย (“เฮ้ เมตา”) อธิบายวัตถุหรือสัตว์ แปลข้อความ หรือแม้แต่ “เขียนคำบรรยายภาพ» ซึ่งเราเพิ่งดำเนินการไป ตามที่บริษัทได้อธิบายไว้เมื่อเดือนธันวาคม
ลีร์แว่นตาของ Meta และ Ray-Ban ได้รับการปรับปรุงด้วย AI นี่คือสิ่งที่จะเปลี่ยนแปลง
และตาม.นิวยอร์กไทม์สที่สามารถทดสอบแว่นตาที่ขับเคลื่อนด้วย AI เหล่านี้ได้เป็นเวลาสองสามสัปดาห์ผลลัพธ์ที่ได้คือ... น่าเชื่อไม่มากก็น้อยฟังก์ชันการจดจำสัตว์และสายพันธุ์ทำงานได้ดีตราบใดที่สัตว์ดังกล่าวอยู่ไม่ไกลเกินไป (ในสวนสัตว์จะยากกว่า) ปัญญาประดิษฐ์ยังสามารถให้ข้อมูลเกี่ยวกับลักษณะของอาหาร (ปราศจากกลูเตนหรือปราศจากกลูเตน) และช่วยในครัวโดยระบุขั้นตอนของสูตรอาหาร
การจดจำอนุสาวรีย์นั้นใช้งานได้จริง ไม่มีอะไรมากไปกว่านั้น แว่นตาจำเป็นต้องมีจุดสังเกตที่ชัดเจนเพื่อระบุอาคารได้อย่างสมบูรณ์แบบ ในส่วนของงานศิลปะ แว่นตาสามารถอธิบายได้ และ Meta สัญญาว่าจะเพิ่มประสบการณ์โดยการระบุชื่อศิลปินและผลงานที่เป็นปัญหา สุดท้ายนี้ การแปลมีให้บริการเป็นภาษาอังกฤษ เยอรมัน อิตาลี สเปน และฝรั่งเศส
หากการอัปเดตจะพร้อมใช้งานในเดือนเมษายน ผู้ใช้ชาวอเมริกันยังคงมีตัวเลือกในการลงทะเบียนได้ที่โปรแกรมดูตัวอย่างเพื่อทดสอบ AI นี้ทันที
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : ตอนนี้