ผู้จัดการธุรกิจหนึ่งร้อยคนและผู้เชี่ยวชาญด้านวิทยาศาสตร์ได้เขียนจดหมายเปิดผนึกถึงองค์การสหประชาชาติเพื่อเตือนรัฐบาลถึงความเสี่ยงของการเพิ่มจำนวนเทคโนโลยีดังกล่าว
ปัญญาประดิษฐ์สามารถเปลี่ยนความขัดแย้งทางอาวุธให้กลายเป็นนักรบที่เปิดเผยได้หรือไม่? กลุ่มผู้จัดการ บริษัท หุ่นยนต์ 116 คนหรือเชี่ยวชาญด้านปัญญาประดิษฐ์ เขาเขียนกจดหมายเปิดผนึกถึงถึงสหประชาชาติที่จะเตือนถึงอันตรายของอาวุธอิสระชื่อเล่น "หุ่นยนต์นักฆ่า" ในบรรดาผู้ลงนามคือ Elon Musk รูปแบบของผู้ผลิตรถยนต์ไฟฟ้าและเทสลาอิสระบางส่วนรวมถึง Mustafa Suleyman ของ บริษัท DeepMind ของอังกฤษเป็นเจ้าของโดย Google และเชี่ยวชาญด้านปัญญาประดิษฐ์
ที่"อาวุธที่น่ารังเกียจอิสระ (... ) จะอนุญาตให้มีความขัดแย้งทางอาวุธในระดับที่ไม่เคยเห็นมาก่อนและด้วยความเร็วที่ยากต่อการออกแบบมนุษย์"เราสามารถอ่านจดหมายเปิดผนึกถึงการประชุม Arms United Nations ได้ไหม"ในฐานะธุรกิจที่พัฒนาเทคโนโลยีเทียมและหุ่นยนต์ที่สามารถเบี่ยงเบนความสนใจไปเพื่อพัฒนาอาวุธอิสระเรารู้สึกรับผิดชอบโดยเฉพาะอย่างยิ่งในการดึงสัญญาณเตือนภัย"พวกเขายังคงพูด
"พวกเขาสามารถเป็นอาวุธที่น่ากลัวอาวุธที่เผด็จการและผู้ก่อการร้ายใช้กับประชากรผู้บริสุทธิ์และอาวุธที่รุนแรงเพื่อจุดประสงค์ที่ร้ายแรง"ดำเนินการต่อผู้ลงนามในจดหมายฉบับนี้ออกอากาศในวันอาทิตย์โดย The Future of Life Institute ซึ่งเป็นองค์กรที่ไม่แสวงหาผลกำไรซึ่งตั้งอยู่ในสหรัฐอเมริกาซึ่งเตือนถึงการกระทำผิดของเทคโนโลยีที่อาจเกิดขึ้น“ เราไม่มีเวลาทำอะไรมาก เมื่อเปิดกล่องแพนโดร่านี้มันจะปิดได้ยาก นี่คือเหตุผลที่เรา (คุณ) ขอร้องวิธีป้องกันตนเองจากอันตรายเหล่านี้”ยังคงเขียนผู้ลงนามจากทั่วโลก
อาวุธทำลายล้างสูง
ในข่าวประชาสัมพันธ์ผู้ลงนามเน้นว่าอาวุธที่ไม่เหมาะสมเป็นอิสระนั้นยังห่างไกลจากการเป็นแฟนตาซีเพราะเทคโนโลยีเหล่านี้กำลังอยู่ในระหว่างการพัฒนา โดยเฉพาะอย่างยิ่งพวกเขากำลังศึกษาในห้องแล็บของกองทัพอเมริกัน-"ถ้าผู้คนไม่ต้องการเห็นอาวุธใหม่แห่งการทำลายล้างสูงที่แพร่กระจายไปทั่วโลก - ในรูปแบบของฝูงขนาดใหญ่ของ microdrones ที่ถึงตาย - เป็นสิ่งจำเป็นที่จะต้องเพิ่มความเข้มข้นและสนับสนุนความพยายามของสหประชาชาติในการสร้างสนธิสัญญาห้ามอาวุธอิสระที่ร้ายแรงถึงตาย . สิ่งนี้มีความสำคัญต่อความมั่นคงระดับชาติและระดับนานาชาติ”ดังนั้นจึงประเมินผู้ลงนามอีกคนหนึ่งคือ Stuart Russel ผู้ก่อตั้ง Bayesian Logic
สหประชาชาติได้ดูอาวุธและการประชุมประเภทนี้ในเรื่องนี้ตั้งแต่ปี 2013 สหประชาชาติควรจัดขึ้นตั้งแต่วันจันทร์ที่เจนีวาในที่สุดการประชุมยกเลิกและเลื่อนออกไปเป็นเดือนพฤศจิกายนตามเว็บไซต์ของสหประชาชาติ ในปี 2558 นักวิจัยและบุคลิกหลายพันคนได้เปิดตัวการอุทธรณ์การห้ามใช้ "อาวุธที่ไม่เหมาะสมเป็นอิสระ"
Elon Musk ซึ่งเป็นสมาชิกของ Future of Life Institute เช่นเดียวกับ Stephensicist Stephens ที่มีชื่อเสียงของ Stephen Hawking ได้เตือนอย่างสม่ำเสมอต่อ "อันตราย" ของปัญญาประดิษฐ์ ในปี 2014 เขาเชื่อว่าความคืบหน้าในส่วนเทคโนโลยีนี้เร็วมากและในที่สุดก็สามารถทำได้กวาด-
🔴อย่าพลาดข่าว 01NET ใด ๆ ติดตามเราที่Google NewsETWhatsapp-