จากความเสี่ยงมากมายที่ได้รับการสำรวจในรายงานใหม่ของ Rand Europe หนึ่งในการเร่งด่วนที่สุดเกี่ยวข้องกับรัฐโกงและการใช้นักแสดงที่ไม่ดีอื่น ๆ และการจัดการของ AI Deepfakes ในขณะเดียวกันรายงานเตือนเกี่ยวกับปัญหาและอันตรายโดยธรรมชาติที่ระบอบประชาธิปไตยตะวันตกต้องเผชิญในการจัดการกับปัญหาเหล่านี้และอื่น ๆ ที่เกิดขึ้นใหม่และปรับปรุงปัญหาการจัดการข้อมูลและผลกระทบต่อเรื่องของความเป็นส่วนตัวและการพูดฟรี
รับหน้าที่จากกระทรวงกลาโหมของสหราชอาณาจักรและสำนักงานต่างประเทศเครือจักรภพและการพัฒนารายงาน 144 หน้าการแข่งขันเชิงกลยุทธ์ในยุคของ AI: ความเสี่ยงและโอกาสที่เกิดขึ้นจากการใช้ปัญญาประดิษฐ์ทางทหารกล่าวว่าศักยภาพของ AI ที่จะใช้สำหรับการจัดการข้อมูล (เช่น deepfakes ที่มีความซับซ้อนสูง) ควรถูกมองว่าเป็นการวาง“ ผลกระทบระดับสูง” ต่อสังคมและเศรษฐกิจด้วย“ ผลที่ตามมาสำหรับทุกสิ่งจากสงครามทางการเมืองการโค่นล้มการแทรกแซงการเลือกตั้งอาชญากรรมและความไว้วางใจของประชาชน”
อย่างไรก็ตามรายงานระบุว่ากฎระเบียบใด ๆ ของ AI จะต้องสร้างสมดุลระหว่างการพูดข้อมูลและความเป็นส่วนตัวฟรี
นักวิจัยของแรนด์ยุโรปกล่าวว่างานของพวกเขาเปิดเผย“ ความเสี่ยงที่โดดเด่น” ซึ่ง“ รวมถึง AI ที่ทำให้เกิดการบิดเบือนข้อมูลอย่างไม่เคยปรากฏมาก่อนทำให้เกิดความวุ่นวายทางสังคมและการทำให้เป็นละอองและทำลายความเชื่อมั่นในข้อเท็จจริงสถาบันและการเมืองประชาธิปไตย…
นอกจากนี้นักวิจัย Rand Europe ได้เตือนว่า“ การแข่งขันเพื่อประโยชน์ใน AI นำไปสู่การแข่งขันที่ด้านล่างของมาตรฐานด้านกฎระเบียบในประเด็นต่าง ๆ เช่นการป้องกันข้อมูลอคติอัลกอริทึมการป้องกันอันตรายและความเป็นส่วนตัว”
อาวุธของ AI กำลังขับเคลื่อน“ รูปแบบใหม่ของสงครามเศรษฐกิจ” เช่นการใช้ Deepfakes - หรือ Memetic Engineering - เพื่อขัดขวางตลาดการเงินและโจมตีแบบจำลองที่ใช้สำหรับการซื้อขายอัลกอริทึม
การศึกษาแรนด์เตือนว่าประชาธิปไตยอาจ“ สัมผัสกับการจัดการข้อมูลการแทรกแซงการเลือกตั้งและการกระทำอื่น ๆ ของการโค่นล้มทางการเมืองโดยใช้ AI” โดยสังเกตว่า“ ความกังวลเกี่ยวกับความเป็นส่วนตัวเสรีภาพพลเมืองและอคติอัลกอริทึมอาจทำให้มันน่าพอใจน้อยลงในการใช้ชุดข้อมูลบางอย่างสำหรับการฝึกอบรมระบบ AI และมีอิทธิพลต่อนโยบายกฎหมายและข้อ จำกัด ด้านจริยธรรมอย่างชัดเจนเกี่ยวกับระบบอาวุธอิสระที่ร้ายแรง”
ยอมรับว่า“ การอภิปรายที่รุนแรง” มีอยู่ภายในชุมชน AI ระหว่างผู้ที่มุ่งเน้นไปที่ความเสี่ยงที่มีอยู่และผู้ที่มุ่งเน้นความเสี่ยงที่ใกล้เข้ามา (เช่นความกังวลเกี่ยวกับอคติความเป็นส่วนตัวความไม่เท่าเทียมกัน ฯลฯ ) นักวิจัยแรนด์ยุโรปกล่าวว่าสิ่งนี้ บริษัท เทคโนโลยี ซึ่งหมายความว่าการพัฒนาโซลูชั่นซ้ำ ๆ เพื่อความท้าทายในทางปฏิบัติในทันทีที่เกิดจากการยอมรับ AI (เช่นการพัฒนาการกำกับดูแลการกำกับดูแลเพื่อลดความกังวลเกี่ยวกับความปลอดภัยและอคติและเน้นประโยชน์ของเทคโนโลยี)
นักวิจัย Rand Europe ยังเตือนด้วยว่าการประยุกต์ใช้ AI กับระบบการกดขี่ที่มีอยู่โดยกองทัพของรัฐและกลุ่มที่ไม่ใช่รัฐที่ติดอาวุธทั่วโลกสามารถ“ เปิดประตูสู่ระบอบการกดขี่ข่มเหงที่สามารถใช้ความเร็วระบบอัตโนมัติและการจดจำรูปแบบของ AI เพื่อเพิ่มการควบคุมพื้นที่ข้อมูล
ในบรรดาผู้เชี่ยวชาญที่เกี่ยวข้องกับผู้เชี่ยวชาญ AI มีรายงานกล่าวว่า“ ขอบเขตที่ AI สามารถให้ความสมดุลในความโปรดปรานของรูปแบบการปราบปรามและเผด็จการของการกำกับดูแลในหลายส่วนของโลกในขณะเดียวกันก็ขู่ว่าจะล้มล้างการเมืองประชาธิปไตย
รายงานพบว่ามี“ ข้อได้เปรียบเฉพาะที่ AI นำเสนอให้กับผู้นำเผด็จการเครื่องมือ AI อาจช่วยระบอบการปกครองดังกล่าวในการตอกย้ำระบบการปราบปรามและการเฝ้าระวังจำนวนมากโดยรัสเซียลงทุนในระบบ AI ที่ใช้ประโยชน์จากข้อมูลจำนวนมาก
ตัวอย่างเช่นประเทศจีนถูกกล่าวหาว่าพัฒนาเครื่องมือ AI ที่ช่วยโดยเฉพาะในการตรวจสอบชนกลุ่มน้อยของ Uighur รวมถึงการขยายอิทธิพลของระบบ 'เครดิตทางสังคม' ดิจิตอล ... การควบคุม AI ให้กับระบบการกดขี่ที่มีอยู่
นักวิจัยของแรนด์ยุโรปกล่าวเพิ่มเติมว่าจีนกำลังแพร่กระจาย“ บรรทัดฐานเผด็จการ” โดยการส่งออกแพลตฟอร์มการเฝ้าระวังที่ไม่ใช่ AI ไปยังเมืองต่างๆในกว่า 80 ประเทศและ“ การเพิ่มระบบที่เปิดใช้งาน AI นั้นเป็นเรื่องที่เกี่ยวข้องกับแนวโน้มนี้”
นอกจากนี้นักวิจัยยังเตือนว่า“ แม้ในประเทศประชาธิปไตยเทคโนโลยี AI เชิงพาณิชย์และการใช้งานที่ส่งออกจากซัพพลายเออร์ในประเทศเผด็จการ (เช่นโดรนหรือกล้องวงจรปิดที่มี AI ในตัว) สามารถสร้างช่องโหว่ใหม่ ๆ
Honeytraps และการใช้ Deepfakes เพื่อออกแรงอิทธิพลเหนือนักการเมืองที่ได้รับการเลือกตั้ง ภัยคุกคามดังกล่าวก่อให้เกิดความท้าทายที่สำคัญเช่นเดียวกับภัยคุกคามโดยตรงต่อภาค AI
รายงานกล่าวว่า“ การยอมรับ AI โดยกองทัพของรัฐและกลุ่มที่ไม่ใช่รัฐติดอาวุธกำลังนำไปสู่การเปลี่ยนแปลงที่สำคัญต่อลักษณะของการแข่งขันและความขัดแย้ง” โดยเน้นว่า“ การพัฒนาการบูรณาการและการใช้ AI เพื่อจุดประสงค์ทางทหารอาจมีผลกระทบอย่างลึกซึ้งสำหรับอนาคตของการทำสงคราม
และ“ สิ่งนี้นำเสนอทั้งโอกาสและความเสี่ยงไม่ว่าจะอยู่ในระดับยุทธวิธีการปฏิบัติงานหรือกลยุทธ์” รายงานกล่าว
ในระดับสูงรายงาน RAND กล่าวว่า“ AI สามารถแยกแยะความแตกต่างใน AI ที่แคบกว้างและแข็งแกร่งได้มากขึ้น”
แคบ AI บางครั้งเรียกว่า AI ที่อ่อนแอ“ หมายถึงระบบ AI ที่ออกแบบมาเพื่อทำงานที่แคบ (เช่นการจดจำใบหน้าหรือการค้นหาทางอินเทอร์เน็ต) และสามารถทำงานได้ภายใต้ช่วงที่กำหนดไว้ล่วงหน้าเท่านั้น” รายงานกล่าว “ เป็นระบบพิเศษเหล่านี้ที่ยอดเยี่ยมในงานเฉพาะของพวกเขา แต่ขาดความสามารถในการเข้าใจหรือใช้ความรู้นอกเหนือจากการเขียนโปรแกรมของพวกเขา”
แรนด์อธิบายว่า“ AI ในวงกว้างหมายถึงวิธีการของ AI ที่มุ่งเน้นไปที่การสร้างระบบที่มีความสามารถในการสรุปความรู้และทักษะในหลาย ๆ งานและโดเมนระบบเหล่านี้จะสามารถปรับให้เข้ากับงานได้ แต่ไม่ใช่ในระดับความรู้สึกหรือเทียบเท่ากับประสิทธิภาพของมนุษย์”
ในที่สุดก็มี AI ที่แข็งแกร่งซึ่งแรนด์กล่าวว่ารวมถึงหน่วยสืบราชการลับทั่วไป (AGI) และหมายถึงระบบเหล่านั้นที่“ สามารถเข้าใจเรียนรู้ปรับตัวและนำความรู้มาใช้ในงานที่หลากหลายในระดับที่เท่ากับหรือเกินกว่าความสามารถของมนุษย์ Agi หรือแนวคิดที่เกี่ยวข้อง
รายงานของ Rand Europe เตือนว่า“ ความเข้าใจในการใช้งานและผลกระทบของเทคโนโลยีเหล่านี้กำลังดีขึ้น แต่จากฐานต่ำแม้จะมีการโฆษณามากมายรอบ AI แต่ก็มีช่องว่างที่สำคัญทั้งในความเข้าใจเชิงทฤษฎีของเราและข้อมูลเชิงประจักษ์ของเราเกี่ยวกับผลประโยชน์ที่อาจเกิดขึ้น การต่อสู้ด้วยความไม่แน่นอนในระดับสูงรอบ ๆ จังหวะและทิศทางของความก้าวหน้าในอนาคต”
หัวข้อบทความ
การตรวจจับไบโอเมตริกซ์-การตรวจจับ deepfake-เฟลค์-แรนด์คอร์ป-AI รับผิดชอบ