OpenAI ได้เปลี่ยนเงื่อนไขการใช้งานทั่วไป: เมื่อวันที่ 10 มกราคม การอ้างอิง "กองทัพและสงคราม" ถูกลบออกจากรายการการใช้งาน ChatGPT ที่ต้องห้าม ผลที่ตามมาคืออะไร?
ต้องการความชัดเจนหรือการเปลี่ยนแปลงยุคที่แท้จริง? เมื่อวันที่ 10 มกราคมOpenAIอัปเดตเงื่อนไขทั่วไปการใช้งาน ChatGPT บริษัทของ Sam Altman ได้ลบรายการการใช้งานที่ต้องห้ามของตัวแทนการสนทนาออกอย่างเป็นรูปธรรม และเลือกรับหลักการและรายงานการห้ามที่กว้างขึ้นการสกัดกั้น-วันที่ 12 มกราคม และหากยังไม่ได้รับอนุญาตให้ใช้ generative AI เพื่อ”พัฒนาหรือใช้อาวุธ"บริษัทได้ลบข้อกำหนดที่เกี่ยวข้องกับ"กองทัพและสงคราม- ซึ่งทำให้เกิดคำถามว่าChatGPTตอนนี้สามารถใช้เพื่อจุดประสงค์ทางทหารได้หรือไม่?
ก่อนวันที่ 10 มกราคม มีการเขียนด้วยขาวดำว่าเป็นสิ่งต้องห้าม การใช้งาน”การทหารหรือสงคราม» จาก ChatGPT ไม่ได้รับอนุญาต ในทางปฏิบัติ การกล่าวถึงทั้งสองคำนี้อย่างชัดเจนห้ามไม่ให้ OpenAI ทำงานให้กับหน่วยงานของรัฐ เช่น กระทรวงกลาโหม หรือกองทัพ ตอนนี้ประตูจะปิดน้อยลงเล็กน้อย และสิ่งนี้ได้รับการยืนยันจากโฆษกของ OpenAI ซึ่งแยกความแตกต่างระหว่างการใช้งานทางทหารที่ต้องห้ามและสิ่งอื่น ๆ ที่จะได้รับอนุญาต
“กรณีการใช้งานที่เป็นประโยชน์เชื่อมโยงกับความมั่นคงของชาติ”
สื่ออเมริกันตั้งคำถามถึงประเด็นนี้มีส่วนร่วมโฆษกของ OpenAI Niko Felix ตอบเป็นลายลักษณ์อักษรว่า “นโยบายของเราไม่อนุญาตให้ใช้เครื่องมือของเราเพื่อทำร้ายผู้คน พัฒนาอาวุธ ตรวจสอบการสื่อสาร ทำร้ายผู้อื่น หรือทำลายทรัพย์สิน” -อย่างไรก็ตาม มีกรณีการใช้งานด้านความมั่นคงของชาติที่สอดคล้องกับภารกิจของเรา"เขาเสริม -เอ็นโอเรากำลังทำงานร่วมกับ DARPA (สาขาหนึ่งของกระทรวงกลาโหมในสหรัฐอเมริกา ซึ่งเชี่ยวชาญด้านเทคโนโลยีใหม่ที่มีไว้สำหรับการใช้งานทางทหาร หมายเหตุจากบรรณาธิการ) วัตถุประสงค์: เพื่อกระตุ้นการสร้างเครื่องมือรักษาความปลอดภัยทางไซเบอร์ใหม่ เพื่อรักษาความปลอดภัยซอฟต์แวร์ฟรีที่โครงสร้างพื้นฐานที่สำคัญและอุตสาหกรรมต้องพึ่งพา มันไม่ชัดเจนว่ากรณีการใช้งานที่เป็นประโยชน์เหล่านี้จะได้รับอนุญาตภายใต้คำว่า "ทหาร" ในนโยบายก่อนหน้าของเรา“เขาพูดต่อ
กล่าวอีกนัยหนึ่ง: ยังคงไม่สามารถใช้ ChatGPT ในการผลิตอาวุธได้ แต่การใช้ LLM สำหรับการใช้งานทางทหารอื่น ๆ ก็ไม่จำเป็นเสมอไป Sarah Myers West เชื่อว่าการตัดสินใจครั้งนี้ไม่ใช่เรื่องเล็กน้อย ซึ่งสัมภาษณ์โดยเพื่อนร่วมงานของเราที่มีส่วนร่วม- ตามที่ผู้อำนวยการบริหารของ AI Now Institute ซึ่งเป็นสถาบันวิจัยของสหรัฐอเมริกาที่ทำงานเกี่ยวกับผลกระทบทางสังคมของ AI การอัปเดตนี้เกิดขึ้นเมื่อระบบ AI ถูกใช้เพื่อกำหนดเป้าหมายพลเรือนในฉนวนกาซา การเปลี่ยนแปลงนี้ยังเกิดขึ้นในช่วงเวลาที่หน่วยงานทหารทั่วโลกเริ่มให้ความสำคัญกับ AI อย่างจริงจัง
การแก้ไขที่ทำขึ้นเพื่อการชี้แจงตาม OpenAI
โดยเฉพาะอย่างยิ่งเมื่อเทคโนโลยี OpenAI สามารถเป็นเครื่องมือที่ใช้โดยกองทัพหรือหน่วยข่าวกรองได้แล้ว AI สามารถช่วยเขียนโค้ดหรือประมวลผลคำสั่งซื้อสำหรับผลิตภัณฑ์ที่สามารถใช้เพื่อกำจัดเป้าหมาย รายงานได้การสกัดกั้น- แต่สำหรับนิโก้ เฟลิกซ์,โฆษกของ OpenAI ที่ตอบกลับเป็นลายลักษณ์อักษรถึงเพื่อนร่วมงานของเราว่า การปรับปรุงเงื่อนไขการใช้งานทั่วไปมีเพียงเป้าหมายเดียวเท่านั้น: “นำมาซึ่งความชัดเจนและอนุญาตให้มีการอภิปรายเหล่านี้- โดยเฉพาะเพราะว่าตอนนี้”เครื่องมือของเรามีการใช้งานทั่วโลกโดยผู้ใช้ทั่วไปที่สามารถสร้าง GPT ได้เช่นกัน- ตั้งแต่วันที่ 10 มกราคม ซึ่งเป็นวันที่อัปเดต การสร้าง AI ส่วนบุคคลของคุณก็เป็นไปได้แล้ว
อ่านเพิ่มเติม:ChatGPT: “App Store” สำหรับ AI ส่วนบุคคลทำงานอย่างไร
ดังนั้น, "หลักการเช่น “อย่าทำร้ายผู้อื่น” นั้นกว้างแต่เข้าใจง่ายและมีความเกี่ยวข้องในหลายบริบทs” โฆษกกล่าวเสริม คงต้องรอดูกันว่าการอัปเดตนี้จะมีผลกระทบในทางปฏิบัติต่อการใช้ LLM โดยหน่วยงานของรัฐหรือไม่ ซึ่งเป็นภาคส่วนที่อาจสร้างกำไรได้มากสำหรับ OpenAI แต่น่ากังวลอย่างมากสำหรับนักปกป้องสิทธิ์
มีการรายงานซ้ำแล้วซ้ำเล่า”"กรณีอคติและภาพหลอนที่รู้จักกันดีมีอยู่ในโมเดลภาษาขนาดใหญ่ (LLM) รวมถึงการขาดความแม่นยำโดยรวม",รายงาน Heidy Khlaaf ผู้อำนวยการฝ่ายวิศวกรรมของ Trail of Bits บริษัทรักษาความปลอดภัยทางไซเบอร์ ให้สัมภาษณ์โดยการสกัดกั้น- -ลการใช้สิ่งเหล่านี้ในการทำสงครามทางทหารสามารถนำไปสู่การปฏิบัติการที่ไม่แม่นยำและลำเอียงเท่านั้น ซึ่งมีแนวโน้มที่จะทำให้ความเสียหายและการบาดเจ็บล้มตายของพลเรือนรุนแรงขึ้น» เธอตื่นตระหนก
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : โพสต์บล็อก OpenAI ตั้งแต่วันที่ 10 มกราคม 2024