Google จัดการกับการตอบสนองที่ไม่สอดคล้องกันจากฟีเจอร์ภาพรวมของ AI ซึ่งใช้ Gemini เพื่ออำนวยความสะดวกในการค้นหาออนไลน์ จากข้อมูลของยักษ์ใหญ่ด้านการค้นหา เรื่องไร้สาระนี้เกิดจากการขาดข้อมูลที่มีอยู่
ในช่วงสัปดาห์ที่ผ่านมา Google ได้ปรับใช้ฟังก์ชั่นภาพรวม AIในสหรัฐอเมริกา ฟังก์ชันการทำงานซึ่งจะขึ้นอยู่กับแบบจำลองภาษาราศีเมถุนเสนอบทสรุปที่มีจุดมุ่งหมายเพื่อช่วยเหลือผู้ใช้เครื่องมือค้นหา ข้อมูลสรุปเหล่านี้ซึ่งแสดงที่ด้านบนของผลลัพธ์ มีจุดมุ่งหมายเพื่อตอบคำค้นหาของผู้ใช้อินเทอร์เน็ตเพียงไม่กี่คำ สร้างขึ้นโดยการรวมกลุ่มข้อมูลที่เกี่ยวข้องมากที่สุดจากผลลัพธ์ที่ได้รับจาก Google
น่าเสียดายที่ AI ได้รับความสนใจอย่างรวดเร็วคำพูดไร้สาระของเขา- เช่นเดียวกับ generative AIs บางครั้งราศีเมถุนก็เริ่มพูดเรื่องไร้สาระ ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์เรียกปรากฏการณ์นี้ว่า "ภาพหลอน" ในกรณีนี้ AI แนะนำให้ผู้ใช้อินเทอร์เน็ตบางรายเพิ่มกาวให้กับพิซซ่าของพวกเขาหรือกินหินวันละก้อน เห็นได้ชัดว่าราศีเมถุนถูกหลอกด้วยข้อมูลเท็จที่เขาหยิบมาจากเว็บ
อ่านเพิ่มเติม:ความกลัว Google ผลัก Microsoft เข้าสู่ AI
Google ชี้นิ้วไปที่“ข้อมูลเป็นโมฆะ”
ไม่กี่วันหลังจากเหตุการณ์ Google ก็กลับมาต้นเหตุแห่งความไร้สาระของราศีเมถุน- ในบล็อกโพสต์ Liz Reid หัวหน้าฝ่ายค้นหาของ Google กล่าวว่าบทสรุปที่ไม่สอดคล้องกันของ Gemini ส่วนใหญ่มีสาเหตุมาจาก“ข้อมูลเป็นโมฆะ”-
ซึ่งแตกต่างจากแชทบอทอื่นๆ ฟังก์ชันภาพรวมของ AI ไม่เพียงสร้างการตอบกลับตามข้อมูลจากคลังข้อมูลการฝึกอบรมเท่านั้น เพื่อให้ทำงานประสานกับเครื่องยนต์ราศีเมถุนได้“ผสานรวมกับระบบการจัดอันดับเว็บหลักของเราและออกแบบมาเพื่อทำงาน “ค้นหา” แบบดั้งเดิม เช่น การระบุผลลัพธ์ที่เกี่ยวข้อง”- เมื่อ AI ไม่พบข้อมูลที่เกี่ยวข้องบนเว็บ ก็อาจมีแนวโน้มที่จะสร้างคำตอบที่ไม่ถูกต้องโดยอาศัยเนื้อหาคุณภาพต่ำ นี่คือเหตุผลที่ยักษ์ใหญ่ Mountain View กำลังพูดถึง« วิดีโอ »ข้อมูล โดยส่วนใหญ่จะเกี่ยวกับคำถามที่พบบ่อยน้อยกว่า บางครั้งก็มี“เนื้อหาคุณภาพสูงในจำนวนจำกัดในหัวข้อหนึ่งๆ”เสียใจด้วย Google
การตีความที่ไม่ดี
จากข้อมูลของ Google ราศีเมถุนก็เกิดขึ้นเช่นกันตีความคำขอผิดชื่อย่อของผู้ใช้อินเทอร์เน็ตหรือเข้าใจผิดข้อมูลที่พบบนอินเทอร์เน็ต ในบางกรณี AI จะนำเนื้อหาเสียดสีอย่างแท้จริง นี่คือสิ่งที่เกิดขึ้นเมื่อราศีเมถุนแนะนำให้ผู้ใช้อินเทอร์เน็ตกินหินทุกวัน
ข้อผิดพลาดในการทำความเข้าใจเหล่านี้สามารถนำไปสู่การเขียนสรุปที่ไม่สอดคล้องกัน Google ระบุว่ากรณีเหล่านี้พบได้น้อยมาก เหนือสิ่งอื่นใด บริษัทอ้างว่า AI ไม่ได้เป็นเช่นนั้น“มักจะมีอาการประสาทหลอน”ไม่. เธอเพียงแต่เข้าใจผิดในสิ่งที่เธอพบบนเว็บ แต่เธอไม่ได้คิดค้นคำตอบที่ไร้สาระขึ้นมาโดยไม่รู้ตัว เมื่อราศีเมถุนแนะนำให้เพิ่มกาวลงในพิซซ่า เห็นได้ชัดว่า AI ถูกหลอกโดยข้อมูลที่ปรากฏในฟอรัม:
“ฟอรัมมักเป็นแหล่งข้อมูลที่เชื่อถือได้โดยตรง แต่ในบางกรณี ฟอรัมเหล่านั้นอาจนำไปสู่คำแนะนำที่เป็นประโยชน์ได้ไม่มาก เช่น การใช้กาวทำชีสติดพิซซ่า”
แม้จะสะดุด แต่ Google ก็บอกว่าพอใจกับผลลัพธ์ภาพรวมของ AI ตามที่บริษัทระบุ สรุปที่ AI สร้างขึ้นมี“อัตราความแม่นยำ”เทียบเท่ากับตัวอย่างข้อมูลที่ได้รับการเพิ่มประสิทธิภาพอันโด่งดังของ Google นี่เป็นคำตอบสั้นๆ กระชับที่ปรากฏที่ด้านบนของผลการค้นหาและอิงตามเนื้อหาบางส่วนในหน้าเว็บ
นี่ไม่ใช่ครั้งแรกที่ปัญญาประดิษฐ์สร้างความประหลาดใจ ผิดหวัง และกังวลกับพฤติกรรมของมัน เมื่อปีที่แล้ว chatbot ที่ใช้เทคโนโลยีเดียวกับ ChatGPT ได้แนะนำให้คู่สนทนาทราบทำค็อกเทลที่มีส่วนผสมของสารฟอกขาว- นอกจากนี้ Amazon ยังค้นพบว่ามีหนังสือบางเล่มที่ขายในร้านและเขียนด้วยความช่วยเหลือของ AI อีกด้วยคำแนะนำร้ายแรงเรื่องการบริโภคเห็ด…
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : Google