
หน้าการค้นหา Bing ซึ่งคุณสามารถใช้คำตอบของ Google เครดิตภาพ: rokas tenys/shutterstock.com
Bing ของ Bing Artificial Intelligence (AI) chatbot ดูเหมือนจะอ้างถึงการโกหก แต่เดิมทำโดยคู่แข่งของ Google Bard ในตัวอย่างที่น่าเป็นห่วงว่าจะมีการแพร่กระจายข้อมูลที่ผิดพลาดโดยรูปแบบภาษาขนาดใหญ่ใหม่
เป็นสัปดาห์ที่ยากลำบากสำหรับAIChatbots ดังนั้นมันอาจเป็นสิ่งที่ดีที่พวกเขาไม่มีความรู้สึก Googleเปิดตัว Chatbot Bard ใหม่สู่สาธารณะด้วยวันแรกที่ค่อนข้างเป็นหลุมเป็นบ่อ
“ การเปิดตัวกวีได้รับการตอบสนองด้วยปฏิกิริยาผสม” กวีบอกกับ Iflscience ซึ่งรวมตัวกันเป็นข้อมูลจากรอบ ๆ เว็บ "บางคนรู้สึกตื่นเต้นเกี่ยวกับศักยภาพของ Bard ที่จะเป็นเครื่องมือที่ทรงพลังสำหรับการสื่อสารและความคิดสร้างสรรค์ในขณะที่คนอื่น ๆ กังวลเกี่ยวกับศักยภาพของ Bard ที่จะใช้สำหรับข้อมูลที่ผิดและการละเมิด"
เป็นเรื่องตลกที่กวีควรพูดถึงแง่มุมนั้นเพราะมันได้ทำสิ่งที่โดดเด่นไปแล้วภาพหลอน- ส่งการตอบสนองที่มั่นใจและสอดคล้องกันซึ่งไม่มีความสัมพันธ์กับความเป็นจริง
ผู้ใช้รายหนึ่งนักเขียนอิสระ UX และนักออกแบบเนื้อหา Juan Buis ค้นพบว่า Chatbot เชื่อว่ามันถูกปิดแล้วเนื่องจากขาดความสนใจ
Buis ค้นพบว่าแหล่งเดียวที่บอทใช้สำหรับข้อมูลนี้เป็นเรื่องตลกอายุ 6 ชั่วโมงแสดงความคิดเห็นเกี่ยวกับข่าวแฮ็กเกอร์- กวีไปที่รายการเหตุผลเพิ่มเติมกวีนั้น (ซึ่งไม่ได้ถูกปิดตัวลง) ถูกปิดตัวลงรวมถึงมันไม่ได้เสนออะไรใหม่หรือนวัตกรรม
"ไม่ว่าจะด้วยเหตุผลใดก็ตามเป็นที่ชัดเจนว่า Google Bard ไม่ใช่ผลิตภัณฑ์ที่ประสบความสำเร็จ"เพิ่ม Google Bard- "มันถูกปิดตัวลงหลังจากน้อยกว่าหกเดือนนับตั้งแต่เปิดตัวและไม่น่าเป็นไปได้ที่จะได้รับการฟื้นฟู"
ตอนนี้น่าอายเหมือนข้อผิดพลาดมันได้รับการแก้ไขอย่างรวดเร็วและอาจจบลงที่นั่น อย่างไรก็ตามมีเว็บไซต์จำนวนหนึ่งเขียนเรื่องราวเกี่ยวกับความผิดพลาดซึ่ง AI Chatbot ของ Bing นั้นตีความผิดอย่างดุเดือด
เช่นเห็นได้จากนั้น Bing ก็หยิบขึ้นมาหนึ่งในบทความตีความผิดและเริ่มบอกผู้ใช้ว่ากวีถูกยกเลิก
ตอนนี้ข้อผิดพลาดได้รับการแก้ไขแล้ว แต่มันดูสมเหตุสมผลว่าใหม่เหล่านี้แชทบอทสามารถและทำผิดได้เนื่องจากผู้คนเริ่มพึ่งพาข้อมูลมากขึ้น เช่นเดียวกับข้อมูลภาพหลอนตอนนี้แชทบอทอาจจบลงด้วยการจัดหาข้อมูลตามภาพหลอนและความผิดพลาดของแชทบอทอื่น ๆ มันอาจจะยุ่งจริงๆ