Terminator 2: วันพิพากษา โดย James Cameron/TriStar Pictures
หุ่นยนต์ชั้นนำของโลกหลายร้อยตัวและผู้เชี่ยวชาญได้ออกจดหมายเปิดผนึกเรียกร้องให้สหประชาชาติสนับสนุนการห้ามใช้ระบบอาวุธอัตโนมัติที่เป็นอันตรายถึงชีวิต
จดหมายดังกล่าวลงนามโดยนักวิจัย 700 คนและผู้เชี่ยวชาญอีกกว่า 600 คน รวมทั้ง,นักฟิสิกส์ชื่อดัง, Steve Wozniack ผู้ร่วมก่อตั้ง Apple, Jaan Talinn ผู้ร่วมก่อตั้ง Skype และนักปรัชญานักกิจกรรม Noam Chomsky
การเปิดตัวดังกล่าวเกิดขึ้นพร้อมกับวันแรกของการประชุม AI อันทรงเกียรติที่สุดในโลกประจำปี 2558การประชุมร่วมระหว่างประเทศเรื่องปัญญาประดิษฐ์-
จดหมายระบุว่าการติดตั้งอาวุธอัตโนมัตินั้นมีความเป็นไปได้ภายในไม่กี่ปี และจะมีบทบาทที่เป็นอันตรายในการขับเคลื่อนการปฏิวัติสงครามครั้งที่สาม รองจากดินปืนและอาวุธนิวเคลียร์
Toby Walsh ศาสตราจารย์ด้านปัญญาประดิษฐ์กล่าวว่า "เทคโนโลยีทั้งหมดสามารถนำมาใช้ในทางที่ดีและไม่ดีได้ ปัญญาประดิษฐ์เป็นเทคโนโลยีที่สามารถนำมาใช้เพื่อช่วยจัดการกับปัญหาเร่งด่วนมากมายที่สังคมกำลังเผชิญอยู่ในปัจจุบัน - ความไม่เท่าเทียมกันและความยากจน ต้นทุนที่สูงขึ้น ของการดูแลสุขภาพ ผลกระทบจากภาวะโลกร้อน…แต่ก็สามารถนำไปใช้ให้เกิดอันตรายโดยไม่จำเป็นได้เช่นกัน”
นักวิจัยยืนยันว่าการเปลี่ยนทหารมนุษย์ด้วยเครื่องจักรเป็นสิ่งที่ดีโดยการลดการบาดเจ็บล้มตาย แต่ไม่ดีเพราะจะทำให้เกณฑ์ในการออกรบลดลง
จดหมายเปิดผนึก:
อาวุธอัตโนมัติ: จดหมายเปิดผนึกจากนักวิจัยด้าน AI และหุ่นยนต์
อาวุธอัตโนมัติจะเลือกและมีส่วนร่วมกับเป้าหมายโดยไม่มีการแทรกแซงของมนุษย์ ตัวอย่างเช่น อาจรวมถึงควอดคอปเตอร์ติดอาวุธที่สามารถค้นหาและกำจัดบุคคลที่ตรงตามเกณฑ์ที่กำหนดไว้ล่วงหน้า แต่ไม่รวมถึงขีปนาวุธร่อนหรือโดรนควบคุมระยะไกลที่มนุษย์ทำการตัดสินใจในการกำหนดเป้าหมายทั้งหมด เทคโนโลยีปัญญาประดิษฐ์ (AI) มาถึงจุดที่การนำระบบดังกล่าวไปใช้จริง (ในทางปฏิบัติหากไม่ถูกกฎหมาย) สามารถทำได้ภายในไม่กี่ปี ไม่ใช่หลายทศวรรษ และมีเดิมพันสูง อาวุธอัตโนมัติได้รับการอธิบายว่าเป็นการปฏิวัติครั้งที่สามในการทำสงคราม รองจากดินปืน และอาวุธนิวเคลียร์
มีการถกเถียงกันมากมายสำหรับและต่อต้านอาวุธอัตโนมัติ ตัวอย่างเช่น การเปลี่ยนทหารมนุษย์ด้วยเครื่องจักรเป็นสิ่งที่ดีโดยการลดการบาดเจ็บล้มตายของเจ้าของ แต่ไม่ดีด้วยเหตุนี้จึงทำให้เกณฑ์ในการออกรบลดลง คำถามสำคัญสำหรับมนุษยชาติในปัจจุบันคือ จะเริ่มการแข่งขันด้านอาวุธ AI ทั่วโลกหรือป้องกันไม่ให้เริ่มต้น หากอำนาจทางทหารที่สำคัญใด ๆ ผลักดันการพัฒนาอาวุธ AI การแข่งขันทางอาวุธระดับโลกแทบจะหลีกเลี่ยงไม่ได้ และจุดสิ้นสุดของวิถีทางเทคโนโลยีนี้ชัดเจน: อาวุธอัตโนมัติจะกลายเป็น Kalashnikovs แห่งอนาคต
ต่างจากอาวุธนิวเคลียร์ พวกมันไม่ต้องการวัตถุดิบที่มีราคาแพงหรือได้มายาก ดังนั้นพวกมันจึงแพร่หลายและราคาถูกสำหรับมหาอำนาจทางทหารที่สำคัญทั้งหมดในการผลิตจำนวนมาก มันจะเป็นเรื่องของเวลาเท่านั้นจนกว่าพวกเขาจะปรากฏตัวในตลาดมืดและอยู่ในมือของผู้ก่อการร้าย เผด็จการที่ต้องการควบคุมประชาชนให้ดีขึ้น ขุนศึกที่ต้องการกระทำการฆ่าล้างเผ่าพันธุ์ ฯลฯ อาวุธอัตโนมัติเหมาะอย่างยิ่งสำหรับงานต่างๆ เช่น การลอบสังหาร การทำลายเสถียรภาพ ล้มล้างประชากรและเลือกฆ่ากลุ่มชาติพันธุ์ใดกลุ่มหนึ่งโดยเฉพาะ
ดังนั้นเราจึงเชื่อว่าการแข่งขันด้านอาวุธของ AI ทางทหารจะไม่เป็นประโยชน์ต่อมนุษยชาติ มีหลายวิธีที่ AI สามารถทำให้สนามรบปลอดภัยสำหรับมนุษย์ โดยเฉพาะพลเรือน โดยไม่ต้องสร้างเครื่องมือใหม่สำหรับการฆ่าผู้คน
เช่นเดียวกับที่นักเคมีและนักชีววิทยาส่วนใหญ่ไม่มีความสนใจในการสร้างอาวุธเคมีหรือชีวภาพ นักวิจัยด้าน AI ส่วนใหญ่ไม่มีความสนใจในการสร้างอาวุธ AI และไม่ต้องการให้ผู้อื่นทำให้สาขาของตนเสื่อมเสียด้วยการทำเช่นนั้น ซึ่งอาจก่อให้เกิดการตอบโต้ต่อสาธารณะครั้งใหญ่ต่อ AI ที่ลดทอนลง ประโยชน์ต่อสังคมในอนาคต แท้จริงแล้ว นักเคมีและนักชีววิทยาได้สนับสนุนข้อตกลงระหว่างประเทศอย่างกว้างขวางในการห้ามอาวุธเคมีและชีวภาพได้สำเร็จ เช่นเดียวกับที่นักฟิสิกส์ส่วนใหญ่สนับสนุนสนธิสัญญาห้ามอาวุธนิวเคลียร์ในอวกาศและอาวุธเลเซอร์ที่ทำให้มองไม่เห็น
โดยสรุป เราเชื่อว่า AI มีศักยภาพที่ดีที่จะเป็นประโยชน์ต่อมนุษยชาติในหลาย ๆ ด้าน และเป้าหมายของสาขานี้ควรจะทำเช่นนั้น การเริ่มต้นการแข่งขันด้านอาวุธ AI ทางทหารถือเป็นความคิดที่ไม่ดี และควรได้รับการป้องกันด้วยการห้ามใช้อาวุธอัตโนมัติที่น่ารังเกียจซึ่งอยู่นอกเหนือการควบคุมของมนุษย์
บทความนี้เผยแพร่ครั้งแรกโดยวงในธุรกิจ-
เพิ่มเติมจาก Business Insider: