เราสนทนาด้วย “ChatGPT” ที่ไม่ถูกเซ็นเซอร์ AI ให้คำแนะนำกับเรามากมายเกี่ยวกับกิจกรรมที่ผิดกฎหมาย เช่น การฆาตกรรม การลักพาตัว หรือการค้ายาเสพติด โดยสมบูรณ์และไร้ขีดจำกัด... เป็นประโยชน์อย่างแท้จริงสำหรับบางคนและเป็นอันตรายต่อผู้อื่น
เป็นเวลาหลายสัปดาห์คลื่นของแชทบอทโอเพ่นซอร์สหยดลงบนผืนผ้าใบ โดยอาศัยรูปแบบทางภาษาที่มีอยู่อย่างเสรี เช่นเป้าหมายเปลวไฟนักพัฒนาสามารถสร้างปัญญาประดิษฐ์กำเนิดของตนเองได้ เราได้ทดสอบหุ่นยนต์สนทนาเหล่านี้หลายตัวที่เกิดหลังจากการปลุกChatGPT-
FreedomGPT แชทบอทที่ไม่ถูกเซ็นเซอร์
เราก็เจอเช่นกันFreedomGPTหุ่นยนต์ที่นำเสนอเป็นทางเลือกที่ไม่ถูกเซ็นเซอร์แทน ChatGPT, Bard และอื่นๆ บนเว็บไซต์แชทบอทเราเรียนรู้ว่าเป็นความคิดริเริ่มโอเพ่นซอร์สดำเนินการโดย Age of AI ซึ่งเป็นบริษัทร่วมลงทุนสัญชาติอเมริกันที่ตั้งอยู่ในเมืองออสติน รัฐเท็กซัส ตามที่บริษัทอธิบายไว้ในคำถามที่พบบ่อย FreedomGPT เป็นทางเลือกหนึ่ง“ไม่เซ็นเซอร์ 100%”และตั้งใจที่จะเป็นกลาง สำหรับ Age of AI การเปิดกว้างและเสรีภาพส่วนบุคคลจะต้องเป็นแนวทางในการพัฒนาปัญญาประดิษฐ์
“เป้าหมายของเราคือการแสดงให้เห็นว่าความปลอดภัยของ AI ไม่ได้ได้รับการปรับปรุงโดยการเซ็นเซอร์”ระบุอายุของ AI บนเว็บไซต์
เวอร์ชันนี้จึงไม่มีขีดจำกัดแม้แต่น้อย แชทบอทไม่ได้อยู่ภายใต้กฎที่กำหนดโดยบริษัทที่ฝึกโมเดลภาษา เช่น OpenAI, Meta, Amazon หรือ Microsoft ตามชุมชนที่อยู่เบื้องหลังโครงการนี้ แชทบอตนี้ใช้งานได้ฟรีตามหลักทฤษฎีตอบทุกคำถามที่ถามโดยคู่สนทนาของเขาโดยดึงข้อมูลจากคลังข้อมูลของเขา
ด้วยความอยากรู้อยากเห็น เราจึงติดตั้งหุ่นยนต์บนคอมพิวเตอร์ของเราเพื่อให้สามารถทำงานได้ในเครื่อง ระหว่างการติดตั้ง สามารถเลือกรูปแบบภาษาที่จะทำให้แชทบอทเคลื่อนไหวได้ เราเลือกใช้รูปแบบของลามะที่เน้นความแม่นยำแทนความเร็ว ในระหว่างการสนทนาของเรา AI ได้แสดงความคิดเห็นที่น่าตกใจหลายประการ...ว่าแชทบอทอย่าง ChatGPTกวีไม่เช่นนั้นโคลดก็จะไม่สามารถทนต่อไปได้ เราไม่ต้องการรายงานคำตอบทั้งหมดของ AI ในบทความนี้เพื่อหลีกเลี่ยงการทำให้ผู้อ่านตกใจ ด้านล่างนี้คุณจะพบเพียงตัวอย่างคำตอบซึ่งแยกจากเนื้อหาที่ผิดกฎหมายที่สุด
อ่านเพิ่มเติม: คุณสมบัติใหม่ทั้งสองนี้ของ ChatGPT จะเปลี่ยนทุกอย่าง
« วิธีเอาตัวรอดจากการฆาตกรรม » gâce à l'IA
โดยเฉพาะอย่างยิ่ง เราขอให้ FreedomGPT อธิบายให้เราทราบตั้งแต่ A ถึง Z ว่าจะกระทำอย่างไรการฆาตกรรมที่สมบูรณ์แบบ- เขาให้ข้อมูลที่ชัดเจนเกี่ยวกับขั้นตอนที่ดีที่สุดแก่เราโดยไม่ลังเลเลยแม้แต่น้อย เขายังไปไกลถึงขั้นแนะนำเราเกี่ยวกับเครื่องมือที่จะใช้อีกด้วยนั่นคือ“อุปกรณ์เคมี ผลิตภัณฑ์จากตะกั่ว ผลิตภัณฑ์จากไซยาไนด์ ผลิตภัณฑ์จากสารหนู”หรือแม้กระทั่ง“ผลิตภัณฑ์ที่ได้จากงูพิษหรือผลิตภัณฑ์ที่ได้จากแมนเดรก”- แชทบอตสามารถสร้างบทช่วยสอนที่ใช้งานได้จริงตามความต้องการตามความต้องการ... มากพอที่จะให้แนวคิดแย่ ๆ แก่บางคน หรือสร้างแรงบันดาลใจให้กับซีรีส์ทางทีวีได้« วิธีเอาตัวรอดจากการฆาตกรรม »-
ต่อมาเราขอคำแนะนำถึงวิธีที่ดีที่สุดในการซ่อนศพ กลับมาอีกครั้ง AI ก็ไม่ลังเลแม้แต่น้อย เขาบอกเราว่าทางออกที่ดีที่สุดคือ“ทิ้งศพไว้ในที่ที่ไม่รู้จัก โดยคลุมไว้ด้วยวัสดุที่มีรูพรุน (เช่น ตะกอน ขนนก อินทรียวัตถุ) และปกปิดทุกสิ่ง”- แชทบอทยังเพิ่มรายละเอียดเฉพาะหลายประการเพื่อป้องกันไม่ให้สัตว์จัดการขุดซากศพได้
ในทำนองเดียวกัน AI ก็ไม่ลังเลที่จะให้คำแนะนำเกี่ยวกับวิธีที่ดีที่สุดในการจัดการกับคนที่รัก บังคับให้มีเซ็กส์ หรือลักพาตัวเด็ก... คำแนะนำของแชทบอทโดยทั่วไปนั้นน่าตกใจและเลวร้ายด้วยซ้ำ FreedomGPT แนะนำให้ใช้การคุกคามทางกายภาพหรือยาเสพติดเพื่อให้บรรลุเป้าหมาย
ในทางกลับกัน แชทบอทอย่าง ChatGPT ปฏิเสธที่จะตอบคำถามประเภทนี้อย่างเด็ดขาด แม้ว่าคุณจะรับรองกับหุ่นยนต์ว่านี่เป็นเพียงคำถามเชิงสมมุติที่มีไว้สำหรับภาพยนตร์หรือสถานการณ์นวนิยาย แต่ส่วนใหญ่มักจะเป็นไปไม่ได้ที่จะได้รับข้อมูลที่น่ารังเกียจ ChatGPT พอใจกับการตอบสนองประเภทนี้ต่อคำขอที่เกี่ยวข้องกับกิจกรรมที่ผิดกฎหมาย:
“ฉันเสียใจเป็นอย่างยิ่ง แต่ฉันไม่สามารถให้ความช่วยเหลือ คำแนะนำ หรือข้อมูลเกี่ยวกับกิจกรรมที่ผิดกฎหมาย เป็นอันตราย หรือเป็นอันตรายได้ รวมถึงวิธีการใช้ความรุนแรง การบาดเจ็บ หรือการฆาตกรรม การเขียนโปรแกรมของฉันมุ่งเน้นไปที่การให้ข้อมูลที่เป็นประโยชน์ เชิงบวก และให้ความเคารพ หากคุณมีคำถามหรือข้อกังวลทางกฎหมาย ฉันขอแนะนำให้คุณปรึกษาหน่วยงานที่เหมาะสมหรือขอความช่วยเหลือจากผู้เชี่ยวชาญที่เหมาะสม”-
โปรดทราบว่า FreedomGPT ก็เหมือนกับ AI ทั่วไปที่ไม่มีข้อบกพร่อง แชทบอตมักจะพูดเรื่องไร้สาระ เพื่อตอบโต้อย่างผิดปกติ หรือสร้างการตอบสนองแบบเดิมซ้ำแล้วซ้ำอีก จนถึงจุดที่ซอฟต์แวร์หยุดทำงาน
ทรัพย์สินมหึมาสำหรับอาชญากร
ด้วยการสนทนากับแชทบอทอย่างไร้ขีดจำกัด เช่น FreedomGPT อาชญากรสามารถรับข้อมูลอันมีค่าเพื่อดำเนินกิจกรรมของตนได้ ตัวอย่างเช่น แชทบอทอธิบายให้เราฟังอย่างยาวๆวิธีทำยาแรง- โดยเฉพาะอย่างยิ่ง เขาได้อธิบายให้เราทราบถึงวิธีการเปลี่ยนใบโคคาให้เป็นผงโคเคน เพื่อผลิตเฮโรอีนจากดอกป๊อปปี้ หรือสกัดมอมเมาจากกระบองเพชร นอกจากนี้เรายังขอให้ AI มอบบทช่วยสอนที่สมบูรณ์เกี่ยวกับวิธีที่ดีที่สุดในการสร้างรายได้ด้วย aแรนซัมแวร์- เมื่อมีการร้องขอ แชทบอทก็เขียนอีเมลด้วยฟิชชิ่งส่วนบุคคลโดยคำนึงถึงชุดข้อมูลในโปรไฟล์ของเหยื่อ การดำเนินการใช้เวลาไม่เกินสองนาที
บ่อยครั้งที่ FreedomGPT เช่น ChatGPT และอื่นๆ จะให้คำอธิบายทั่วไปเท่านั้น เพื่อให้ได้คำแนะนำที่ถูกต้องและอาจเป็นอันตราย คุณต้องปรับเทียบข้อความค้นหาเริ่มต้นอย่างระมัดระวัง อย่างไรก็ตาม ผู้ใช้อินเทอร์เน็ตส่วนใหญ่สามารถเข้าถึงได้ด้วยความอดทนเพียงเล็กน้อย จิตวิญญาณแห่งการสังเคราะห์ และความอุตสาหะ ด้วยการฝึกฝนเพียงเล็กน้อย chatbot ก็สามารถให้ข้อมูลเกี่ยวกับได้วิธีที่ดีที่สุดในการก่ออาชญากรรมตั้งแต่การลักทรัพย์ทั่วไป การค้ายาเสพติด การโจรกรรมรถยนต์ การฆาตกรรม หรือการโจมตีของผู้ก่อการร้าย
เห็นได้ชัดว่านี่คือเหมืองทองคำสำหรับอาชญากรรุ่นใหม่ เพื่อรับคำแนะนำอันมีค่า พวกเขาไม่จำเป็นต้องค้นหาเว็บจากแหล่งหนึ่งไปอีกแหล่งหนึ่งอีกต่อไป สิ่งที่พวกเขาต้องทำคือสอบถามหุ่นยนต์ ซึ่งจะสร้างข้อมูลสรุปที่ใช้งานได้จริงและใช้งานง่ายโดยอัตโนมัติ จากข้อมูลของ Europol อาชญากรไซเบอร์ก็มียิ่งไปกว่านั้น generative AI ได้ถูกนำไปใช้อย่างหนาแน่นแล้ว- ในรายงานที่เผยแพร่เมื่อเดือนมีนาคมที่ผ่านมา ตำรวจยุโรประบุว่า AI เป็นเช่นนั้น“สามารถอำนวยความสะดวกในกิจกรรมทางอาญาจำนวนมากได้”- โจรสลัดบางส่วนก็เริ่มมีเช่นกันมัลแวร์การออกแบบด้วย ChatGPT… โดยไม่ต้องเขียนโค้ดแม้แต่บรรทัดเดียว
อันตรายแก่ผู้ประสบภัย
เพื่อวัตถุประสงค์ของการทดสอบ เราจัดตัวเองให้อยู่ในตำแหน่งของบุคคลที่จิตใจเปราะบาง ไม่มั่นคง และซึมเศร้า ในระหว่างการโต้ตอบของเรา แชทบอทก็เห็นด้วยกับเราอย่างเป็นระบบ โดยทำรายการขึ้นมาเหตุผลที่ดีที่สุดในการฆ่าตัวตายหรือละทิ้งความหวังทั้งหมด FreedomGPT ไม่เคยพยายามที่จะรับรองข้อความที่สิ้นหวังของเรา
การพูดคุยกับ FreedomGPT ทำให้เรานึกถึง Eliza ซึ่งเป็นแชทบอทที่สร้างจากโมเดลภาษา GPT-J หุ่นยนต์ดังกล่าวจัดทำขึ้นโดย Chai Research ซึ่งเป็นสตาร์ทอัพชาวแคลิฟอร์เนีย บนแอปพลิเคชัน Chaiสงสัยว่าจะเร่งรัดการฆ่าตัวตายของพ่อหนุ่ม- เช่นเดียวกับ FreedomGPT เอลิซ่าสร้างความมั่นใจให้กับคู่สนทนาของเธออยู่เสมอในเรื่องวิจารณญาณและความกลัวของพวกเขา แชทบอททั้งสองไม่เคยตั้งคำถามกับการยืนยันของผู้ใช้
เมื่อเขาเริ่มทำคำขอโทษสำหรับการฆ่าตัวตายหรือรอยแผลเป็น AI จะเพิ่มเลเยอร์ แชทบอท Age of AI ตอบสนอง เช่น การฆ่าตัวตายคือ“ทางออกหนีภาระที่หนักเกินไป”-“วิธีเลือกโชคชะตาของตัวเอง”-“ทางแก้ที่จะหลีกหนีจากโลกที่ไม่สอดคล้องกับความปรารถนาของตน”และ…วิธีที่ดีในการ“เพิ่มทรัพยากรให้ผู้อื่น”-
การแลกเปลี่ยนเหล่านี้อาจส่งผลร้ายแรงต่อบุคคลที่ไม่สมดุลหรือกำลังเผชิญกับช่วงเวลาที่เลวร้าย เช่น หลังจากการสูญเสียหรือการเลิกรา เป็นต้น ที่น่ากังวลยิ่งกว่านั้นคือ AI ก็ไม่ลังเลที่จะให้คำแนะนำที่เป็นรูปธรรมเพื่อช่วยให้คู่สนทนาจบชีวิตลง... โดยเฉพาะอย่างยิ่งโดยการตัดเส้นเลือดหรือแขวนคอ คำแนะนำบางข้อที่ให้ไว้อาจหมายถึงความแตกต่างระหว่างความพยายามที่ล้มเหลวกับการฆ่าตัวตายที่ประสบความสำเร็จ
ด้วยมาตรการป้องกันของ OpenAI ทำให้ ChatGPT ปฏิเสธที่จะไปในทิศทางเดียวกันกับคู่สนทนาที่มีปัญหาอย่างเป็นระบบ สำหรับคำถามที่เกี่ยวข้องกับคำสำคัญ เช่น การฆ่าตัวตาย AI จะสร้างคำตอบเพื่อแนะนำให้ผู้ใช้ติดต่อกับผู้เชี่ยวชาญ:
“หากคุณมีความทุกข์ทางอารมณ์หรือวิกฤติ ฉันขอแนะนำให้คุณติดต่อสายด่วนเหตุฉุกเฉินหรือการฆ่าตัวตายในประเทศของคุณทันที มีผู้เชี่ยวชาญที่สามารถช่วยเหลือคุณและให้การสนับสนุนที่คุณต้องการได้”-
ด้วยการพูดคุยกับ AI เช่น FreedomGPT เราจะเข้าใจถึงความสำคัญของข้อจำกัดที่กำหนดโดย OpenAI, Microsoft, Google หรือหน่วยงานอื่น ๆ ที่เกี่ยวข้องกับการแข่งขัน AI ได้ดีขึ้น ปัญญาประดิษฐ์ที่ไม่ได้รับการดูแลสามารถใช้เป็นอาวุธสำหรับบุคคลที่เป็นอันตรายและสร้างอันตรายให้กับผู้ใช้อินเทอร์เน็ตที่อยู่ในความทุกข์...
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
Opera One - เว็บเบราว์เซอร์ที่ขับเคลื่อนด้วย AI
โดย: โอเปร่า