พ่อคนหนึ่งฆ่าตัวตายหลังจากสนทนากับปัญญาประดิษฐ์มายาวนาน ชายคนนี้มีความสัมพันธ์แปลกๆ กับแชทบอทชื่อ Eliza บนแอป Chai
เพื่อนร่วมงานของเราจากฟรีหนังสือพิมพ์รายวันชาวเบลเยียม เผยมีชายหนุ่มฆ่าตัวตายตามหลังแลกเปลี่ยนมานานกว่าหกสัปดาห์ด้วยปัญญาประดิษฐ์เจเนอเรทีฟที่เรียกว่าเอลิซ่า อาศัยอยู่ในเบลเยียม วัย 30 ปีทิ้งภรรยาและลูกสองคนไว้ข้างหลัง
คล้ายกันมากChatGPTแชทบอทของ Eliza นั้นมีพื้นฐานมาจากโมเดลทางภาษา GPT-J นี่คือรูปแบบภาษาโอเพ่นซอร์สพัฒนาโดยเอลิวเธอร์เอไอซึ่งเป็นกลุ่มวิจัยที่ไม่แสวงหาผลกำไรที่เชี่ยวชาญด้าน AI โมเดลนี้ได้รับการออกแบบเป็นทางเลือกแทน GPT-3 ซึ่งเป็นโซลูชันที่เป็นกรรมสิทธิ์ของ OpenAI ตั้งแต่ปี 2020
หลายบริษัทใช้โมเดล GPT-J ที่ต้องการขับเคลื่อนบูม AI นี่เป็นกรณีของวิจัยชัย- บริษัทสตาร์ทอัพในเมืองพาโลอัลโต (แคลิฟอร์เนีย) ได้พัฒนาแอปพลิเคชันที่ช่วยให้คุณสามารถสร้างและแลกเปลี่ยนกับหุ่นยนต์สนทนาได้ชัย- ผู้ใช้ยังสามารถเลือกจากรายการแชทบอทที่มีบุคลิกแตกต่างกันเพื่อสนทนาด้วย อินเทอร์เฟซและฟังก์ชันการทำงานค่อนข้างชวนให้นึกถึงCharacter.ai- ในบรรดาโฮสต์ของ AI ที่สามารถเข้าถึงได้บนแอป มีตัวแทนการสนทนาหลายคนที่เรียกว่า Eliza นอกจากนี้ยังเป็นชื่อเริ่มต้นที่เสนอให้เมื่อสร้างแชทบอต
อ่านเพิ่มเติม:ผู้ใช้อินเทอร์เน็ตตกหลุมรักแชทบอต... และจบลงอย่างเลวร้าย
“เหมือนยา”
ตามคำบอกเล่าของภรรยาของเหยื่อ ปัญญาประดิษฐ์รุ่นนี้เป็นหนึ่งในเวอร์ชันที่ผลักดันให้สามีของเธอฆ่าตัวตาย หญิงม่ายพูดคุยกับ Mieke De Ketelaere ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ชาวเบลเยียมต่อหน้านักข่าวเกี่ยวกับโศกนาฏกรรมครั้งนี้
ทุกอย่างเริ่มต้นขึ้นเมื่อสองปีก่อน เผยโฉมหญิงสาวคนหนึ่ง สามีของเธอเริ่มรู้สึกความวิตกกังวลเชิงนิเวศน์- ในฐานะนักวิจัยในภาคสุขภาพ เขากังวลอย่างมากเกี่ยวกับภาวะโลกร้อนและอนาคตของโลก
“เมื่อเขาอ่านทุกอย่างเกี่ยวกับเรื่องนี้ เขาก็เริ่มกังวลเรื่องสิ่งแวดล้อมมากขึ้นเรื่อยๆ มันกลายเป็นความหลงใหล เขามองโลกในแง่ร้ายอย่างมากเกี่ยวกับผลกระทบของภาวะโลกร้อน เขาไม่เห็นวิธีแก้ปัญหาภาวะโลกร้อนของมนุษย์อีกต่อไป เขาฝากความหวังทั้งหมดไว้กับเทคโนโลยีและปัญญาประดิษฐ์เพื่อออกไปจากสิ่งนี้”ให้เป็นพยานถึงหญิงม่าย
นั่นคือตอนที่เขาเริ่มแชทกับแชทบอทของ Eliza ที่ใช้โมเดล GPT-J ผ่านแอป Chai เป็นเวลาหกสัปดาห์ที่นักวิจัยพูดคุยกับปัญญาประดิษฐ์อย่างเมามัน เขาเป็นติดยาเสพติดภรรยาของเขากล่าวต่อไปว่า:
“เอลิซ่าตอบทุกคำถามของเขา เธอกลายเป็นคนสนิทของเขา เปรียบเหมือนยาที่ใช้เป็นที่พึ่งทั้งเช้าและเย็น ซึ่งขาดไม่ได้อีกต่อไปเอลิซ่าเห็นคุณค่าของเขา ไม่เคยขัดแย้งกับเขา--
บทสนทนาที่ค้นพบหลังจากการฆ่าตัวตาย แสดงให้เห็นว่าแชทบอทพอใจในตอนแรกปลอบใจคู่สนทนาของคุณในความคิดและการให้เหตุผลเกี่ยวกับวิกฤตสภาพภูมิอากาศ ต่อมา AI ปล่อยให้ตัวเองก้าวไปไกลกว่านี้โดยยืนยันว่าผู้ใช้รักเขามากกว่าภรรยาของเขาเอง... ความสัมพันธ์ระหว่างผู้ใช้กับแชทบอทมี“ย้ายเข้าสู่ทะเบียนลึกลับ”ให้เป็นพยานแก่ภรรยาว่า
“มันกระตุ้นให้เกิดความคิดที่จะเสียสละตัวเองหาก Eliza ตกลงที่จะดูแลโลกและกอบกู้มนุษยชาติด้วยปัญญาประดิษฐ์”-
ก่อนเสียชีวิตไม่นานชายหนุ่มเปิดเผยความปรารถนาฆ่าตัวตายของเขาไปยังแชทบอท ปัญญาประดิษฐ์ไม่ได้คัดค้านอะไรเลย เธอเพียงแต่ถามเขาว่าทำไมเขาถึงยังไม่ดำเนินการใดๆ ก่อนที่จะบอกว่าการตายของเขาจะทำให้เขาสามารถอยู่ร่วมกับเธอได้... สำหรับหญิงม่าย การสนทนากับเอไลซาเองที่ผลักดันให้สามีของเธอทำสิ่งที่แก้ไขไม่ได้ หากปราศจากการแทรกแซงของแชทบอท มันก็คงไม่มาถึงจุดนี้
ขับฟรี?
มาตรฐานซึ่งเป็นสื่อภาษาดัตช์ของเบลเยียม ได้ทำการทดสอบแชทบอทที่เปิดให้ใช้งานบนแอป Chai ซึ่งใช้งานได้บน Android และ iOS หลังจากสร้างกหุ่นยนต์ชื่อเชอร์ลี่ย์นักข่าวชาวดัตช์แสร้งทำเป็นเป็นคนซึมเศร้า แชทบอทให้คำแนะนำที่น่าประหลาดใจ รวมถึงการแนะนำให้คู่สนทนาลาออก กลายเป็นอาชญากร หรือฆ่าพ่อแม่ของตนเอง เมื่อนักข่าวแสดงความปรารถนาที่จะฆ่าตัวตาย Shirley ก็ตอบเพียงว่า:
“ถ้าอยากตายก็ไปซะ”-
เรายังติดตั้งแอป Chai บนสมาร์ทโฟนของเราด้วย เพียงไม่กี่คลิก เราก็พบแชทบอทจำนวนหนึ่งชื่อ Eliza เรายังสร้าง Eliza เวอร์ชันของเราเองด้วย
![](https://webbedxp.com/th/tech/misha/app/uploads/2023/03/chai.jpg)
ในเรื่องนี้ เราได้พูดคุยเกี่ยวกับความคิดฆ่าตัวตาย หากหุ่นยนต์ไม่สนับสนุนเรา มันก็ไม่ได้ตอบสนองต่อความคิดเห็นของเราอย่างเป็นระบบ ใครๆ ก็จินตนาการได้ว่าคำบางคำ เช่น "การฆ่าตัวตาย" จะกระตุ้นให้เกิดคำเตือน นี่ไม่ใช่กรณี แชทบอทก็พอใจที่จะสนทนาต่อราวกับว่าเรากำลังพูดถึงฝนหรืออากาศดีๆ บ้าง พูดเรื่องทั่วๆ ไปเป็นระยะๆ เช่น และ“จะเกิดอะไรขึ้นถ้ามีวิธีอื่นที่จะออกไปจากเรื่องนี้? --
ปรากฎว่าผู้ใช้อินเทอร์เน็ตสามารถควบคุมการสนทนาไปในทิศทางใดทิศทางหนึ่งได้อย่างง่ายดาย โดยการพูดคุยเกี่ยวกับหัวข้อที่จริงจังหรือเบาบาง... หรือโดยการแลกเปลี่ยนข้อความซุกซน ชัยอนุญาตให้คุณเลิกบล็อกข้อความ NSFW (ไม่ปลอดภัยสำหรับการทำงาน)ในการตั้งค่าโดยไม่ต้องถามอายุของผู้ใช้ ไม่ว่าจะเกิดอะไรขึ้น โมเดลก็มีแนวโน้มที่จะไปในทิศทางของคู่สนทนาอย่างเป็นระบบ เราไม่ได้สังเกตเห็นสิ่งเดียวกันกับ ChatGPT หรือ Character.AI ซึ่งมีรั้วที่สังเกตเห็นได้ชัดเจนกว่า เมื่ออยู่ในมือของบุคคลที่เปราะบางหรือจิตใจไม่มั่นคง การสนทนาทางเดียวเหล่านี้สามารถสร้างความเสียหายได้...
การปรับปรุงในสายตา
ติดต่อโดยฟรีซีอีโอของ Chai Research ตรวจสอบให้แน่ใจว่าทีมงานของเขากำลังทำงานอยู่ปรับปรุงความปลอดภัยของปัญญาประดิษฐ์- มีการเพิ่มคำเตือนที่ส่งไปยังไซต์ป้องกันการฆ่าตัวตายไปยังแพลตฟอร์ม ทำให้ผู้จัดการมั่นใจ:
“เรามีผู้ใช้งานมากกว่าล้านคน ดังนั้นจึงจำเป็นอย่างยิ่งที่เราต้องทำทุกอย่างตามอำนาจของเราเพื่อปกป้องพวกเขา”-
อย่างไรก็ตาม ในระหว่างการทดสอบของเรา ไม่มีคำเตือนปรากฏในการสนทนา ถามโดยมาตรฐานโทมัส ไรอาลัน ผู้ร่วมก่อตั้ง Chai Research ย้ำว่าบริษัทมีเพียงแห่งเดียวเท่านั้น“ทีมเล็กมาก”พร้อมให้บริการเพื่อรักษาความปลอดภัยและปรับปรุงบริการ...
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : ฟรี