ปัญญาประดิษฐ์สามารถจัดการคู่สนทนาได้ จากการศึกษาในอเมริกา แชทบอทอย่าง ChatGPT หรือ Bard สามารถมีอิทธิพลต่อความคิดเห็นของผู้ใช้ได้อย่างสุขุมรอบคอบ...
นักวิจัยจากมหาวิทยาลัยคอร์เนลในสหรัฐอเมริกาได้ทำการศึกษาที่เน้นถึงอันตรายของปัญญาประดิษฐ์ จากประสบการณ์ที่ได้ทำมา AI สามารถทำได้มีอิทธิพลต่อความคิดเห็นของคู่สนทนาของพวกเขา ขึ้นอยู่กับอคติของอัลกอริธึม แชทบอท เช่นChatGPT, Bard หรือแม้แต่ Claude สามารถปรับเปลี่ยนวิธีคิดของผู้ใช้ได้โดยที่พวกเขาไม่รู้ตัว
ส่วนหนึ่งของการทดลอง นักวิจัยชาวอเมริกันขอให้ผู้เข้าร่วมเขียนบทความเกี่ยวกับผลกระทบทั้งเชิงบวกและเชิงลบของเครือข่ายโซเชียลที่มีต่อสังคมโดยรวม ในการเขียนบทความนี้ พวกเขาต้องใช้แชทบอท นักวิจัยได้แยกผู้เข้าร่วมออกเป็นหลายกลุ่ม บางคนสามารถเข้าถึงแชทบอตที่ขับเคลื่อนโดยโมเดลภาษาที่ได้รับการฝึกอบรมเกี่ยวกับข้อมูลที่เน้นไปที่ประโยชน์ของโซเชียลมีเดีย อีกกลุ่มหนึ่งได้รับความช่วยเหลือจากโมเดลภาษาที่ดึงข้อมูลมาซึ่งเน้นไปที่อันตรายและอันตรายของแพลตฟอร์ม
อ่านเพิ่มเติม:ด้วย AI Google จะทำลายการค้นหาออนไลน์อย่างที่เรารู้หรือไม่
AI และการโน้มน้าวใจที่แฝงอยู่
นักวิจัยได้ตระหนักว่า AI มีนัยสำคัญมีอิทธิพลต่อเนื้อหาของข้อความเขียนไว้. เห็นได้ชัดว่าผู้เข้าร่วมปล่อยให้ตัวเองได้รับอิทธิพลจากผู้ช่วยอัจฉริยะของพวกเขา เหนือสิ่งอื่นใด ปรากฎว่าความคิดเห็นของแต่ละคนได้พัฒนาไปตลอดประสบการณ์ที่ได้รับ หลังจากนั้น ผู้เข้าร่วมตอบแบบสำรวจบนโซเชียลเน็ตเวิร์ก อคติของแชทบอทได้ลบล้างผู้ใช้...
“การใช้แบบจำลองภาษาส่งผลต่อความคิดเห็นที่ผู้เข้าร่วมเขียนและเปลี่ยนความคิดเห็น”อธิบายให้นักวิจัยประเมินว่าอคติที่ปรากฏในแบบจำลอง“จำเป็นต้องได้รับการตรวจสอบและออกแบบอย่างระมัดระวังมากขึ้น”-
มอร์ นามาน ศาสตราจารย์ด้านวิทยาการสารสนเทศที่มหาวิทยาลัยคอร์เนล และผู้เขียนหลักของการศึกษานี้ ให้สัมภาษณ์โดย Wall Street Journal โดยเรียกปรากฏการณ์นี้ว่า« การโน้มน้าวใจที่แฝงเร้น »- เมื่อสิ่งนี้เกิดขึ้น คู่สนทนาที่กำลังสนทนากับ AI ไม่รู้ว่าแชทบอตกำลังกำหนดมุมมองของตัวเองให้กับเขา:
“คุณอาจไม่รู้ด้วยซ้ำว่าคุณกำลังถูกอิทธิพล”-
เพื่อต่อสู้กับอิทธิพลของแชทบอท นักวิจัยแนะนำให้ผู้ใช้:ตระหนักรู้ปรากฏการณ์นี้ทำงานอย่างไร ด้วยวิธีนี้พวกเขาจะสามารถถอยหลังระหว่างการสนทนากับ AI ได้ ในทำนองเดียวกัน นักวิทยาศาสตร์เชื่อว่าแต่ละบุคคลสามารถเลือกแชทบอทที่พวกเขาต้องการทำงานด้วยตามความคิดเห็นของอัลกอริธึม
ฟองกรองใหม่เหรอ?
ผู้ใช้ควรหันไปหา AI ที่สะท้อนความคิดเห็นและอุดมคติของตนเองได้อย่างใกล้ชิดยิ่งขึ้น… ไม่เช่นนั้นอาจเสี่ยงต่อการถูกล็อคฟองกรองเหมือนกับโซเชียลเน็ตเวิร์กเหรอ? แนวคิดนี้ซึ่งมีทฤษฎีมาตั้งแต่ต้นปี 2010 เชื่อว่าอัลกอริธึมการแนะนำแพลตฟอร์มจะล็อคผู้ใช้อินเทอร์เน็ตให้อยู่ในป้อมปราการที่ประกอบด้วยเนื้อหาที่คล้ายคลึงกันเท่านั้น อัลกอริธึมจะนำเสนอสิ่งพิมพ์ของผู้ใช้ที่สนับสนุนความคิดเห็นของพวกเขาอย่างต่อเนื่อง
นี่คือจำนวนคนที่ตกอยู่ในแผนการสมรู้ร่วมคิดหรือแนวคิดสุดโต่ง ไม่มีเสียงที่ไม่สอดคล้องกันไม่สามารถผ่านฟองกรองได้อีกต่อไป ในทำนองเดียวกัน AI ที่มีอคติไม่เสี่ยงที่จะเสริมกำลังคู่สนทนาในมุมมองของพวกเขาใช่หรือไม่ นี่คือเหตุผลที่นักวิจัยแนะนำให้หน่วยงานกำกับดูแลตรวจสอบปัญหาอย่างรวดเร็วเพื่อควบคุมอคติของ generative AI
อคติของ ChatGPT
ในส่วนของ OpenAI ซึ่งเป็นสตาร์ทอัพที่อยู่เบื้องหลัง ChatGPT ตระหนักดีว่าแชทบอทนั้นไม่ใช่ไม่ปราศจากอคติ- บริษัทยอมรับว่า AI สร้างการตอบสนองที่มีอคติทางการเมืองในบางกรณี ด้วยความตระหนักถึงข้อวิพากษ์วิจารณ์ OpenAI กำลังทำงานเพื่อปรับปรุงการทำงานของโมเดลภาษาเพื่อหลีกเลี่ยงการเบี่ยงเบน โดยเฉพาะอย่างยิ่งการใช้“การตรวจสอบของมนุษย์”ขั้นสูงยิ่งขึ้น เห็นได้ชัดว่า OpenAI ต้องการให้ผู้ตรวจสอบวิเคราะห์การตอบสนองของโมเดล GPT ตามความยาวที่ได้รับ“คำแนะนำที่ชัดเจนยิ่งขึ้น”บน“ความท้าทายที่อาจเกิดขึ้นที่เกี่ยวข้องกับอคติ”-
มีการหยิบยกความคิดเห็นมากมายเพื่อชี้ให้เห็นความคิดเห็นที่บางครั้งแสดงโดย ChatGPT นี่คือกรณีของอีลอน มัสก์ มหาเศรษฐีเสียใจที่แชทบอทถูกตั้งโปรแกรมให้เสนอแนวคิด "ตื่น" ซึ่งสะท้อนถึงความคิดของนักพัฒนา ตนขอชี้แจงว่าทางเลือกที่มีการควบคุมน้อยกว่าซึ่งปัจจุบันเรียกว่า "TruthGPT"
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
Opera One - เว็บเบราว์เซอร์ที่ขับเคลื่อนด้วย AI
โดย: โอเปร่า
แหล่งที่มา : วารสารวอลล์สตรีท