บทความนี้เขียนโดยฌอน เวลส์จากมหาวิทยาลัยแคนเทอร์เบอรีและเผยแพร่ครั้งแรกโดยการสนทนา-
นักการทูตจากทั่วโลกพบกันที่เจนีวาเมื่อสัปดาห์ที่แล้วเพื่อการประชุมครั้งที่สามของสหประชาชาติการประชุมผู้เชี่ยวชาญอย่างไม่เป็นทางการเกี่ยวกับระบบอาวุธอัตโนมัติร้ายแรง (กฎหมาย) หรือที่เรียกกันทั่วไปว่า 'หุ่นยนต์นักฆ่า'
เป้าหมายของพวกเขาคือการสร้างความคืบหน้าในการตัดสินใจว่าควรควบคุมกฎหมายอย่างไรหรืออย่างไรกฎหมายมนุษยธรรมระหว่างประเทศ-
ที่ประชุมได้แสดงความเห็นหลากหลาย ตั้งแต่ปากีสถานเห็นชอบการห้ามเต็มรูปแบบ จนถึงสหราชอาณาจักรไม่สนับสนุนกฎหมายใหม่สำหรับกฎหมาย และอีกหลายตำแหน่งระหว่างนั้น
แม้จะมีข้อเสนอที่หลากหลาย แต่ก็มีจุดร่วมกันบางประการ
เป็นที่ตกลงกันโดยทั่วไปว่ากฎหมายอยู่ภายใต้กฎหมายมนุษยธรรมระหว่างประเทศ ตัวอย่างเช่น หุ่นยนต์ไม่สามารถละเลยหลักการของความแตกต่างระหว่างพลเรือนและนักรบ, หรือความได้สัดส่วนในระดับการโจมตี-
ผู้บังคับบัญชาที่เป็นมนุษย์จะต้องรับผิดชอบในการบังคับบัญชาหุ่นยนต์ของตน เช่นเดียวกับที่พวกเขาทำหน้าที่ในการรับใช้ชายและหญิง หุ่นยนต์ไม่สามารถใช้อย่างถูกกฎหมายในการก่ออาชญากรรมการฆ่าล้างเผ่าพันธุ์ การสังหารหมู่ และอาชญากรรมสงคราม
นอกเหนือจากนั้น ยังมีตำแหน่งกว้างๆ อีกสี่ตำแหน่งที่ประเทศต่างๆ เข้ายึดครอง
ตำแหน่งที่ 1: พึ่งพากฎหมายที่มีอยู่
จุดยืนของสหราชอาณาจักรคือกฎหมายมนุษยธรรมระหว่างประเทศที่มีอยู่เพียงพอที่จะควบคุมเทคโนโลยีที่เกิดขึ้นใหม่ปัญญาประดิษฐ์-AI) และวิทยาการหุ่นยนต์-
ข้อโต้แย้งคือกฎหมายมนุษยธรรมระหว่างประเทศเพียงพอที่จะควบคุมเครื่องบินและเรือดำน้ำเมื่อเกิดขึ้น และจะรับมือกับกฎหมายหลายประเภทด้วย ซึ่งจะรวมถึงโดรนนักล่าด้วย "ผู้ว่าการด้านจริยธรรม" ซึ่งเป็นซอฟต์แวร์ที่ออกแบบมาเพื่อตรวจสอบว่าการนัดหยุดงานเป็นไปตามกฎการสู้รบที่กำหนดและกฎหมายมนุษยธรรมระหว่างประเทศหรือไม่ - หรือเรือรบต่อต้านเรือดำน้ำอัตโนมัติเช่นเรือทดลองอิสระของกองทัพเรือสหรัฐฯนักล่าทะเล-
ตำแหน่งที่ 2: บ้านการเรียนรู้ของเครื่อง
คณะผู้แทนฝรั่งเศสกล่าวว่าการห้ามจะ "เกิดก่อนเวลาอันควร" และพวกเขาเปิดรับการยอมรับความถูกต้องตามกฎหมายของ "ออกจากวงกฎหมายที่มี "มนุษย์อยู่ในวงกว้าง" ซึ่งหมายความว่าเครื่องจักรสามารถเลือกเป้าหมายและยิงได้โดยอัตโนมัติ แต่มนุษย์ยังคงตั้งกฎของการสู้รบ
อย่างไรก็ตาม พวกเขาก็เปิดให้ควบคุมได้การเรียนรู้ของเครื่องในกฎหมาย "นอกวง" (ซึ่งยังไม่มี) ดังนั้นพวกเขาอาจสนับสนุนการห้ามใช้ AI ที่เรียนรู้ด้วยตนเองในอนาคต - คล้ายกับอัลฟ่าโกซึ่งเพิ่งเอาชนะแชมป์โลก Go ของมนุษย์ - ในการควบคุมขีปนาวุธโดยตรงโดยไม่มีมนุษย์อยู่ในวงกว้าง ข้อกังวลหลักคือ AI ดังกล่าวอาจคาดเดาไม่ได้
ตำแหน่งที่ 3: แบน "นอกวง" โดยมี "มนุษย์อยู่ในวงกว้าง"
คณะผู้แทนชาวดัตช์และสวิสแนะนำว่าระบบ "นอกระบบ" ที่มี "มนุษย์อยู่ในวงกว้าง" สามารถปฏิบัติตามกฎหมายมนุษยธรรมระหว่างประเทศ แสดงการควบคุมของมนุษย์ที่มีความหมายเพียงพอ และปฏิบัติตามคำสั่งของจิตสำนึกสาธารณะ
สหราชอาณาจักร ฝรั่งเศส และแคนาดาคัดค้านการห้ามใช้ระบบดังกล่าว
ผู้สนับสนุนอาวุธหุ่นยนต์ดังกล่าวอ้างว่าอาวุธเหล่านี้อาจมีศีลธรรมเหนือกว่าทหารมนุษย์ เพราะอาวุธเหล่านี้จะแม่นยำยิ่งขึ้น แม่นยำยิ่งขึ้น และมีแนวโน้มน้อยลงในการตัดสินใจที่ไม่ดีอันเนื่องมาจากความตื่นตระหนกหรือการแก้แค้น
ฝ่ายตรงข้ามแย้งว่าพวกเขาอาจเข้าใจผิดในสภาพแวดล้อมที่รกหรือถูกกีดกันและไม่เป็นที่ยอมรับทางศีลธรรม
ตัวอย่างเช่นสันตะสำนักและอีก 13 ชาติคิดว่าการแทรกแซงของมนุษย์แบบเรียลไทม์ในการตัดสินใจใช้ชีวิตนั้นเป็นสิ่งจำเป็นทางศีลธรรม ดังนั้นจึงต้องมีมนุษย์อยู่ในวงจรเสมอ
ตำแหน่งนี้ต้องการข้อยกเว้นสำหรับอาวุธ "ป้องกัน" ที่สอดใส่แล้ว เช่นระบบอาวุธระยะประชิด Phalanxและอาวุธ "นอกระบบ" ที่ได้รับการยอมรับมายาวนาน เช่น ทุ่นระเบิดทางเรือ ซึ่งมีมาตั้งแต่ทศวรรษ 1860
ตำแหน่งที่ 4: แบนอาวุธ "ในวง"
ปากีสถานและปาเลสไตน์จะสนับสนุนมาตรการใดๆ ที่กว้างพอที่จะห้ามโดรนที่บินระยะไกลได้ อย่างไรก็ตาม ประเทศส่วนใหญ่มองว่าสิ่งนี้อยู่นอกเหนือขอบเขตของการถกเถียงเรื่องกฎหมาย เนื่องจากมนุษย์ตัดสินใจเลือกและมีส่วนร่วมกับเป้าหมาย แม้ว่าหลายคนจะยอมรับว่าโดรนถือเป็นหายนะด้านสิทธิมนุษยชนก็ตาม
การกำหนดเส้นในแง่ของทัวริง
อย่างเป็นทางการ AI คือเครื่องทัวริงที่ใช้กฎทางกลไกกับอินพุตสัญลักษณ์เพื่อสร้างเอาต์พุต
การห้ามกฎหมายการเรียนรู้ของเครื่องเป็นการห้าม AI ที่อัปเดตกฎเกณฑ์ของตนเองสำหรับการตัดสินใจที่ร้ายแรง การห้ามกฎหมาย "วงกว้าง" เป็นการห้าม AIs ด้วยหนังสือกฎที่เขียนโดยมนุษย์ซึ่งทำการตัดสินใจที่ร้ายแรง การห้ามใช้กฎหมาย "ในวงวน" เป็นการห้ามหุ่นยนต์ที่มนุษย์ขับเป็นอาวุธเลย
ความคิดเห็นยังแตกต่างกันออกไปว่าการควบคุมการตัดสินใจโดยการคำนวณของทัวริงมีคุณสมบัติที่มีความหมายหรือเป็นมนุษย์
ขั้นตอนต่อไป
การประชุมเจนีวาเป็นการประชุมผู้เชี่ยวชาญอย่างไม่เป็นทางการเพื่อชี้แจงคำจำกัดความและได้รับความเห็นพ้องต้องกันว่าสิ่งใด (ถ้ามี) ที่อาจถูกห้ามหรือควบคุมในสนธิสัญญา ด้วยเหตุนี้ จึงไม่มีการลงมติเกี่ยวกับข้อความในสนธิสัญญา
ผลลัพธ์ที่เป็นไปได้มากที่สุดคือการจัดตั้งคณะผู้เชี่ยวชาญของรัฐบาลเพื่อหารือกันต่อไป AI หุ่นยนต์ และกฎหมายยังคงได้รับการพัฒนา ในขณะที่สิ่งต่างๆ ดำเนินไป โลกอยู่ในตำแหน่งที่ 1: อาศัยกฎหมายมนุษยธรรมระหว่างประเทศที่มีอยู่
หาก AlphaGo ทำหน้าที่ควบคุมขีปนาวุธโดยปฏิบัติตามหลักการ เช่น การเลือกปฏิบัติและการแบ่งสัดส่วน มันก็จะไม่ผิดกฎหมายอย่างชัดเจน เพียงแต่สามารถโต้แย้งได้
ฌอน เวลส์, ผู้สมัครระดับปริญญาเอกด้านจริยธรรมหุ่นยนต์,มหาวิทยาลัยแคนเทอร์เบอรี-
บทความนี้เผยแพร่ครั้งแรกโดยการสนทนา- อ่านบทความต้นฉบับ-