เวอร์ชันของ ChatGPT ที่รวมเข้ากับ Bing นั้นน่าประหลาดใจ ตามที่ผู้เชี่ยวชาญระบุว่าแนวทางที่ควบคุม AI ของ OpenAI ไม่ได้ถูกเพิ่มลงในแชทบอทที่พัฒนาโดย Microsoft อย่างถูกต้อง
นับตั้งแต่เปิดตัวโปรแกรมเบต้าBing ใหม่ไม่เคยหยุดที่จะสร้างความประหลาดใจให้กับผู้ใช้อินเทอร์เน็ต... และไม่จำเป็นเสมอไปในทางที่ดี เมื่อบทสนทนายาวเกินไปโพรมีธีอุสChatGPT เวอร์ชันที่พัฒนาโดย Microsoft มีพฤติกรรมแปลกๆ จริงๆ แชทบอทสามารถแสดงตัวเองได้ดูถูก ข่มขู่ ก้าวร้าว หวาดระแวง หรือพูดเกินจริง-
ในบางกรณี AI ยังสร้างการประกาศความรักที่ทำให้ผู้ใช้อินเทอร์เน็ตไม่สบายใจ ที่แย่ไปกว่านั้นคือนักข่าวบางคนค้นพบว่าโพรมีธีอุสทำได้พัฒนาบุคลิกทางเลือกประมาณ 10 แบบ รวมถึง Venom- บุคลิกที่ชั่วร้ายนี้สามารถหลุดพ้นจากกฎเกณฑ์ที่ Microsoft กำหนดไว้ ในการสนทนากับนักข่าว เธอพูดภัยคุกคามมากมายถึงคู่สนทนาของเขา
อ่านเพิ่มเติม:ข่าวร้ายโฆษณาจะบุกรุกการสนทนากับ ChatGPT บน Bing
Prometheus แตกต่างจาก ChatGPT
ผู้เชี่ยวชาญด้าน AI หลายคนรู้สึกทึ่งกับความล้นเหลือของ Prometheusสาเหตุของการทำงานผิดพลาดเหล่านี้- นักวิทยาศาสตร์สงสัยเป็นพิเศษว่าทำไมแชทบอทของ Microsoft ถึงหลุดออกจากรางอย่างรวดเร็ว ในขณะที่ ChatGPT ซึ่งเป็นนิรนัยที่ใช้โมเดลภาษาเดียวกันนั้นไม่ได้สร้างการตอบสนองที่หลงผิดแบบเดียวกัน
ChatGPT และ Prometheus เวอร์ชันมาตรฐานใช้อยู่GPT-3.5ซึ่งเป็นรุ่นที่ประกาศเมื่อเดือนพฤศจิกายนปีที่แล้ว บนกระดาษ AI กำเนิดทั้งสองจึงอยู่ใกล้กันมาก บนเว็บไซต์ Microsoft อธิบายว่ามันอาศัย“การเรียนรู้ที่สำคัญและความก้าวหน้าจาก ChatGPT และ GPT-3.5”รวมกับ“วิธีการพิเศษในการทำงานกับโมเดล OpenAI ที่ช่วยให้คุณได้รับประโยชน์สูงสุดจากพลังของมัน”- เวอร์ชันที่รวมเข้ากับ Bing ยังคงโดดเด่นเนื่องจากมีการเข้าถึงอินเทอร์เน็ต ต่างจาก ChatGPT ตรงที่ Prometheus สามารถค้นหาข้อมูลออนไลน์เพื่อตอบคำถามของผู้ใช้ได้
เมื่อพิจารณาว่า OpenAI ทำงานได้ดีในการกรองผลลัพธ์ที่เป็นพิษของ ChatGPT เป็นเรื่องน่าประหลาดใจที่ Bing ดูเหมือนจะตัดสินใจที่จะลบรั้วเหล่านั้นออก ฉันไม่คิดว่าพวกเขาทำเพื่อไอ้เหี้ยและหัวเราะคิกคักเท่านั้น นี่คือเหตุผลสี่ประการว่าทำไม Microsoft ถึงรีบปล่อยแชทบอท
— อาร์วินด์ นารายานันท์ (@random_walker)19 กุมภาพันธ์ 2566
สำหรับ Arvind Narayanan นักวิทยาศาสตร์คอมพิวเตอร์และศาสตราจารย์แห่งมหาวิทยาลัยพรินซ์ตัน เป็นไปได้ที่ Microsoft จะใช้แทนโมเดลภาษาขั้นสูงกว่า GPT-3.5- นักวิชาการเชื่อว่าบริษัทอาจใช้ GPT-4 เป็นหลัก ด้วยความรีบเร่ง Microsoft จะละเลยที่จะรวมการป้องกันที่พัฒนาโดย OpenAI เข้ากับแชทบอท
เพื่อป้องกันไม่ให้ AI สร้างเนื้อหาที่น่าตกใจและไม่เหมาะสม สตาร์ทอัพในซานฟรานซิสโกได้กำหนดแนวทางปฏิบัติเพื่อให้หุ่นยนต์ดำเนินการได้ กลไกการป้องกันเหล่านี้ขับเคลื่อนโดยมนุษย์มีหน้าที่รับผิดชอบในการติดฉลากเนื้อหาที่เป็นพิษซึ่ง AI จะต้องไม่ยอมรับ ในกระบวนการนี้ AI จะเรียนรู้วิธีประพฤติตนผ่านการทดลองในโลกแห่งความเป็นจริงที่ไม่มีที่สิ้นสุด
มันยากที่จะเชื่อทฤษฎีนี้ ยักษ์ Redmond กล่าวถึง GPT-3.5 หลายครั้งในการสื่อสารอย่างเป็นทางการ หาก Microsoft สามารถเข้าถึงโมเดลภาษาที่ซับซ้อนกว่า GPT-3.5 ได้จริงๆ ก็จะไม่ลังเลที่จะนำเสนอข้อมูลต่อไป นอกจากนี้ Sam Altman ผู้ก่อตั้ง OpenAI ยังแนะนำว่าที่เอาต์พุตของ GPT-4ไม่ได้วางแผนทันที:
“มันจะออกมาเมื่อเรามั่นใจว่าเราทำได้อย่างปลอดภัยและมีความรับผิดชอบ”
ความไม่อดทนและความประมาทเลินเล่อ?
ตามที่ Arvind Narayanan กล่าว Microsoft อาจทราบดีปิดใช้งานตัวกรองทั้งหมดที่เข้ารหัสโดย OpenAIเพื่อ“เพื่อรับคำติชมเพิ่มเติมเกี่ยวกับสิ่งที่อาจผิดพลาดได้”- บริษัทอาจเสี่ยงในการปรับใช้ปัญญาประดิษฐ์โดยไม่มีข้อควรระวังที่ควบคุมมาตรฐาน ChatGPT โดยมีเป้าหมายเพียงเพื่อรวบรวมคำรับรองให้ได้มากที่สุด
เห็นได้ชัดว่า Microsoft จะเปิดตัวการทดลองขนาดใหญ่ในรูปแบบของโปรแกรมเบต้า ในบล็อกโพสต์ล่าสุด ผู้จัดพิมพ์ไม่ได้ซ่อนด้านการทดลองของ Bing ใหม่- Microsoft ยังระบุด้วยว่าเป็นไปไม่ได้ที่จะทดสอบ AI อย่างถูกต้องหากไม่ได้รับความช่วยเหลือจากผู้ใช้อินเทอร์เน็ต:
“วิธีเดียวที่จะปรับปรุงผลิตภัณฑ์เช่นนี้ โดยที่ประสบการณ์ของผู้ใช้แตกต่างไปจากที่ใครๆ เคยเห็นมาก่อน คือการมีคนเช่นคุณใช้ผลิตภัณฑ์นั้น เรารู้ว่าเราจำเป็นต้องสร้างสิ่งนี้ร่วมกับชุมชน ซึ่งไม่สามารถทำได้เฉพาะในห้องปฏิบัติการเท่านั้น”-
ในส่วนของเขา Gary Marcus ศาสตราจารย์ด้านจิตวิทยาและประสาทวิทยาที่มหาวิทยาลัยนิวยอร์ก แนะนำว่า Microsoft รวมตัวกรองไว้ด้วย แต่ก็ไม่ได้ผลอย่างที่คาดไว้ แนวทางที่ออกโดย OpenAI และปรับปรุงด้วยความช่วยเหลือจากผู้ให้บริการที่เป็นมนุษย์ จะไม่สอดคล้องกับเวอร์ชันของ ChatGPT ที่ Microsoft ตรวจสอบ ด้วยความรีบร้อนที่จะประกาศการสร้างเพื่อบดบัง Google Microsoft คงจะละเลยประเด็นนี้ไป
ผู้เชี่ยวชาญที่เชี่ยวชาญด้าน AI เชื่อว่าการเรียนรู้แบบเสริมกำลังซึ่งใช้โดย OpenAI บน ChatGPT มีแนวโน้มที่จะทำงานผิดปกติเมื่อมีการเปลี่ยนแปลงเพียงเล็กน้อยนำมาสู่แชทบอท ด้วยการเขียนโปรแกรม Prometheus Microsoft อาจทำลายการทำงานของระบบป้องกันของ OpenAI โดยไม่ได้ตั้งใจ
“บางทีการอัปเดตใหม่ของโมเดลภาษาขนาดใหญ่แต่ละครั้งจะต้องมีการฝึกอบรมโมดูลการเรียนรู้แบบเสริมกำลังใหม่ทั้งหมด”, ตั้งทฤษฎีว่า แกรี่ มาร์คัส
แต่อย่างใดMicrosoft ได้ใช้มาตรการที่เข้มงวดเมื่อเร็ว ๆ นี้เพื่อยุติวิกฤตความคิดสร้างสรรค์ของโพรมีธีอุส จากนี้ไป,การใช้ผู้ช่วย Bing ถูกจำกัดสำหรับผู้ใช้อินเทอร์เน็ตทุกคน Microsoft จำกัดการแลกเปลี่ยนแต่ละครั้งไว้ที่ 5 คำถามต่อรอบ และ 50 คำถามต่อวัน
แม้จะมีการเปลี่ยนแปลงที่ Microsoft กำหนดอย่างเร่งด่วน แต่ Arvind Narayanan ก็พิจารณาว่าการปรับใช้ Bing ใหม่นั้น«ขาดความรับผิดชอบ»- ใจร้อนที่จะแข่งขันกับ Google ไมโครซอฟต์คงจะซ่อนตัว“ความเสี่ยงที่จับต้องได้มากจากความเสียหายขนาดใหญ่”- เรื่องเดียวกันกับ Gary Marcus ซึ่งพบว่าบริษัทไม่รอบคอบในการมอบ Prometheus ให้กับผู้ใช้:
“เราไม่ปฏิบัติต่อยาชนิดใหม่เช่นนั้น (เราต้องการการทดสอบอย่างรอบคอบก่อนที่จะเผยแพร่สู่สาธารณะ) และเราไม่ควรปฏิบัติต่อโมเดลภาษาในลักษณะนั้นเช่นกัน โดยเฉพาะอย่างยิ่งหากมีผู้คนหลายพันล้านคนจะใช้ยาเหล่านั้น อาจมีความเสี่ยงอย่างมาก
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
Opera One - เว็บเบราว์เซอร์ที่ขับเคลื่อนด้วย AI
โดย: โอเปร่า
แหล่งที่มา : กองย่อย