Google ใช้ประโยชน์จากการประชุม I/O เพื่อเปิดเผยวิดีโอสาธิตโครงการ Astra ซึ่งพยายามตอบสนองโดยตรงต่อโมเดลภาษา GPT-4o ใหม่ของ OpenAI
Google ไม่ได้ตั้งใจที่จะให้ OpenAI เป็นผู้นำในด้านปัญญาประดิษฐ์ ยักษ์ใหญ่ด้านการค้นหาจึงได้เปิดตัวโครงการ Astra ซึ่งมีพื้นฐานมาจากต้นแบบของตัวแทน AI ที่ใช้แบบจำลองหลายรูปแบบ Gemini
อนาคตของ AI จะเป็นแบบหลายรูปแบบหรือไม่ก็ได้
เพียงยี่สิบสี่ชั่วโมงต่อมาการนำเสนอของ OpenAI เกี่ยวกับโมเดลภาษา GPT-4o ใหม่Google เผยคำตอบจากคนเลี้ยงแกะถึงคนเลี้ยงแกะ: โครงการ Astra นำเสนอผ่านวิดีโอความยาวสองนาทีซึ่งเป็นส่วนหนึ่งของการประชุม Google I/Oวิดีโอนำเสนอศักยภาพของปัญญาประดิษฐ์หลายรูปแบบ
ดังนั้น โมเดล Gemini 1.5 Turbo AI จึงแสดงให้เห็นถึงความสามารถในการใช้แหล่งข้อมูลหลายแหล่ง (รูปภาพ ข้อความ เสียง ข้อมูล ฯลฯ) เพื่อประมวลผลแบบเรียลไทม์ เพื่อตอบคำถามของผู้ใช้ วิดีโอนี้ค่อนข้างน่าประทับใจ แต่ต้องทนทุกข์ทรมานจากการเปรียบเทียบกับ GPT-4o ของ OpenAI เมื่อไม่กี่ชั่วโมงก่อนหน้านี้
วิดีโอโครงการ Astra ประกอบด้วยสองส่วน ภาพแรกแสดงต้นแบบที่ทำงานบนสมาร์ทโฟน Google Pixel และภาพที่สองบนแว่นตาที่เชื่อมต่อ ตัวแทนจะได้รับอินพุตเสียงและวิดีโออย่างต่อเนื่อง ซึ่งสามารถวิเคราะห์เหตุผลเกี่ยวกับสภาพแวดล้อมแบบเรียลไทม์ และโต้ตอบกับผู้ทดสอบในการสนทนาเกี่ยวกับสิ่งที่เห็น
วิดีโอนี้ได้รับการจัดเตรียมอย่างดี แต่ก็ปฏิเสธไม่ได้ว่าวิดีโอนี้ทำงานได้อย่างสมบูรณ์แบบ ในขั้นแรก เจ้าหน้าที่สามารถจดจำวัตถุที่สร้างเสียงได้ โดยการระบุประเภทของลำโพงที่ผู้ใช้ชี้ไป จากนั้นขอให้เขาสร้างสัมผัสอักษร (การซ้ำพยัญชนะในชุดคำใกล้เคียง) เกี่ยวกับหม้อดินสอสี จากนั้นจึงวิเคราะห์ว่าส่วนหนึ่งของโค้ดที่แสดงบนหน้าจอใช้ทำอะไร
การสาธิตดำเนินต่อไปและจบลงอย่างไม่ติดขัด มันแสดงให้เห็นถึงความสามารถในการวิเคราะห์สภาพแวดล้อมใหม่ของตัวแทนการสนทนาได้อย่างยอดเยี่ยม ความคิดเห็นของคุณสนใจเรา คุณประทับใจหรือไม่กับการสาธิตครั้งนี้?
ประกาศอื่นๆ จาก Google I/O 2024:
- ใน Android 15 ตัวกรองป้องกันการหลอกลวงระหว่างการโทร
- ค้นหาด้วยวิดีโอ: ในที่สุด Google ก็อาจพบว่ามีประโยชน์สำหรับราศีเมถุน
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
Opera One - เว็บเบราว์เซอร์ที่ขับเคลื่อนด้วย AI
โดย: โอเปร่า
แหล่งที่มา : Google