การประชุมสุดยอดปารีส AI ซึ่งสิ้นสุดวันอังคารที่ 11 กุมภาพันธ์มีปัญหาเกี่ยวกับความปลอดภัยของ IA ขั้นสูงเล็กน้อย: โอกาสที่พลาดไปสำหรับผู้เชี่ยวชาญและสมาคมหลายแห่ง
เบื้องหลังการลงทุนที่ประกาศของ109 พันล้านสำหรับฝรั่งเศสและ 200 พันล้านสำหรับสหภาพยุโรป "การประชุมสุดยอดเพื่อการกระทำของ AIจากปารีสซึ่งสิ้นสุดในวันอังคารที่ 11 กุมภาพันธ์เขาได้พัฒนาวิชาความปลอดภัยขั้นสูงเมื่อเผชิญกับความเสี่ยงที่เชื่อมโยงกับระบบ AI? รัฐทั่วโลกพบฉันทามติเกี่ยวกับปัญหาที่ละเอียดอ่อนนี้หรือไม่?
สำหรับผู้เชี่ยวชาญบางคนการประชุมสุดยอด Paris AI ไม่อนุญาตให้มีความคืบหน้าใด ๆ : ในทางตรงกันข้ามบันทึกหลังการลดลงของการพิจารณาเรื่อง แม้จะมีข้อความของ Emmanuel Macron สนับสนุน "ความมั่นใจ»จำเป็นสำหรับการพัฒนา AI และสิ่งนี้แม้จะมีการเริ่มต้นที่ดีถึงการประชุมสุดยอด
“ ฉันไม่ได้มาที่นี่เพื่อพูดคุยเกี่ยวกับความปลอดภัยของ IA-
เมื่อวันที่ 6 กุมภาพันธ์ต้นน้ำของเหตุการณ์ "รายงานความปลอดภัยของ IA"ได้รับการตีพิมพ์"สรุปวรรณกรรมทางวิทยาศาสตร์เกี่ยวกับความปลอดภัยของ AI”เทียบเท่ากับรายงาน ICAC มีการจัดกิจกรรมและการประชุมแบบขนาน - ตัวอย่างเช่นโดย NGO Pause Ia
แต่นั่นก็ไม่ได้นับคำพูดที่น่ารังเกียจของรองประธานาธิบดีอเมริกัน Vd Vance ซึ่งมากวาดความหวังทั้งหมดของคำถามนี้ -ฉันไม่ได้มาที่นี่เพื่อพูดคุยเกี่ยวกับความปลอดภัยของ IA"Technophile กล่าวเมื่อสิ้นสุดการแข่งขันในวันอังคารที่ 11 กุมภาพันธ์ ถึงเวลาแล้วที่จะต้องเสี่ยงและละทิ้งความรอบคอบมากเกินไปเขากล่าวในเนื้อหาเพื่อจัดการกับความประสงค์ของชาวยุโรป "ขันสกรู"American AI และ Giants ดิจิตอลที่มีกฎระเบียบ"มากเกินไป» et «แพง-
อ่านเพิ่มเติม:"อเมริกาจะไม่ยอมรับมัน": รองประธานาธิบดีสหรัฐเตือนยุโรปและกฎระเบียบของ IA
อย่างไรก็ตามความปลอดภัยของ AI คือเมื่อสองปีก่อนเรื่องหลักของการประชุมสุดยอด Bletchley ซึ่งจัดขึ้นในปี 2566 ในสหราชอาณาจักร แต่หลังถูกผลักไสไปยังที่สอง - แม้กระทั่งแผนสุดท้าย - มันแทบจะไม่ได้กล่าวถึงในการประกาศครั้งสุดท้ายของฝรั่งเศส
ย้อนกลับสำหรับผู้เชี่ยวชาญบางคน
ความแตกต่างที่อธิบายด้วยเหตุผลหลายประการ ก่อนอื่นเพราะรัฐบาลอเมริกันใหม่ปกป้องวิธีการควบคุมกฎระเบียบ โดนัลด์ทรัมป์ลบตัวเลือกที่หายากไม่กี่ก่อตั้งขึ้นโดย Joe Biden ในเรื่องนี้และเริ่มประลองกับส่วนที่เหลือของโลก - รวมถึงยุโรป - ดังนั้นจึงไม่มีข้อ จำกัด ด้านกฎระเบียบมาขัดขวางการพัฒนาแชมป์อเมริกัน
อ่านเพิ่มเติม:จากความประหลาดใจถึงการเจรจา: วิธีที่ทรัมป์-มูสคคู่มียุโรป waver ใน 13 วัน
ประเทศยังปฏิเสธที่จะลงนามในประกาศครั้งสุดท้ายของการประชุมสุดยอด ในข้อความที่ไม่มีข้อผูกมัดนี้ผู้ลงนามหกสิบคน (รวมถึงสหภาพยุโรปและจีน) ดำเนินการเพื่อส่งเสริม AI "ปลอดภัยและมั่นใจ- ถัดจากสหรัฐอเมริกาสหราชอาณาจักรและสหรัฐอาหรับเอมิเรตส์ได้เลือกที่จะไม่ลงนามในข้อความพิสูจน์ว่าฉันทามติแม้กระทั่งการประกาศความปรารถนาดีอย่างง่าย ๆ ก็ไม่ได้เกิดขึ้น
ในทำนองเดียวกันหากมีการสร้างร่างกายฝรั่งเศสที่เฉพาะเจาะจงก่อนการประชุมสุดยอด - Inesia (สถาบันแห่งชาติเพื่อการประเมินผลและความปลอดภัยของ AI) - มันมีวิธีการน้อยมาก - มันไม่ได้ติดตั้งทางการเงินที่สะอาด เพียงพอที่จะย้อนกลับไปอย่างแท้จริงซึ่งบางคนเสียใจเช่นศูนย์ความปลอดภัยของ AI (Cesia) สมาคมฝรั่งเศสประกอบด้วยนักวิจัยและผู้เชี่ยวชาญ
ในแถลงการณ์โพสต์เมื่อวันอังคารเมื่อสิ้นสุดวันสมาคมเสียใจ "การชดเชยที่โดดเด่นระหว่างการลงทุนขนาดใหญ่ใน AI และทรัพยากรที่จัดสรรให้กับความปลอดภัย- เรื่องราวเดียวกันกับโยชูวาเบงโอผู้ชนะรางวัลทัวริงในปี 2561 ผู้ก่อตั้งและผู้อำนวยการวิทยาศาสตร์ของมิลาสถาบันปัญญาประดิษฐ์ควิเบกพลาด () โอกาส "D '"ความจริงครั้งแรก (เอ้อ) คำถามเร่งด่วนของความเสี่ยงที่เกี่ยวข้องกับการพัฒนาอย่างรวดเร็วของแบบจำลองขั้นสูง“ เขาเขียนลงบนเขาบัญชี x-
-วิทยาศาสตร์แสดงให้เห็นว่า AI มีความเสี่ยงที่สำคัญในช่วงเวลาที่ต้องการผู้นำระดับโลกในการเข้าใจอย่างจริงจังมากขึ้น“ เขายังคงเขียน
เจ้านายของ AI เริ่มต้นขึ้นมานุษยวิทยา, dario amodei, ก็แสดงสิ่งนี้ด้วย "โอกาสที่ล้มเหลว- -กดเวลา"เขาเขียนในการแถลงข่าว"การอภิปรายระหว่างประเทศ" ต้อง "เข้าหาความเสี่ยงที่เพิ่มขึ้นซึ่งเชื่อมโยงกับความปลอดภัยของเทคโนโลยีนี้โดยละเอียดยิ่งขึ้น-
ไม่มีการประเมินความเสี่ยงของเครื่องมือ AI โดยหน่วยงานสาธารณะ
โดยเฉพาะอย่างยิ่งเนื่องจากหน่วยงานกำกับดูแลมีวิธีการประเมินความเสี่ยงที่เกิดขึ้นในเครื่องมือ AI ที่เกิดขึ้นเพียงเล็กน้อยก่อนที่ผู้ใช้จะสามารถเข้าถึงได้ หลังเผชิญหน้ากับปรากฏการณ์ของ "กล่องดำว่าไจแอนต์ของ AI ปฏิเสธที่จะเปิดเช่นเดียวกับกรณีของเครือข่ายสังคมออนไลน์
ยากในกรณีนี้ในการวัดและประเมินความเสี่ยงโดยไม่มีการเข้าถึงและการทำงานร่วมกันของ บริษัท เทคโนโลยี บริษัท AI ประเมินงานของตัวเองในปี 2566 เสียใจอดีตนายกรัฐมนตรีอังกฤษในระหว่างการประชุมสุดยอด Bletchey สองปีต่อมาเรายังคงอยู่ในจุดเดียวกันแม้จะมีAI Act, ระเบียบ AI ยุโรปและแม้จะมีหลักปฏิบัติที่ดีเกี่ยวกับปัญญาประดิษฐ์ภายใต้การพัฒนาตั้งแต่เดือนกันยายน 2567
สำหรับ Mathias Cormann เลขาธิการ OECD ที่แสดงออกในระหว่างโต๊ะกลมเมื่อวันที่ 11 กุมภาพันธ์ในระหว่างการประชุมสุดยอด "OECD ได้พัฒนาหลักการเกี่ยวกับ AI ที่ได้รับการปรับปรุงเมื่อเร็ว ๆ นี้เพื่ออำนวยความสะดวกในการพัฒนาความมั่นใจความมั่นใจมุ่งเน้นไปที่มนุษย์ แต่เราต้องการความเสี่ยง (... ) และปรับใช้วิธีการเพื่อลดความเสี่ยงเหล่านี้ ที่ OECD เรามีระบบตรวจสอบเหตุการณ์ (…) เรามีหอดูดาวเพื่อระบุมาตรการทางการเมืองที่เกิดขึ้น”มากกว่า“ เราต้องการ (... ) กรอบการกำกับดูแลกรอบการกำกับดูแลทั่วไปเราอยู่ไกลและเราต้องติดตามเพื่อให้สามารถได้รับประโยชน์ในความปลอดภัยที่สมบูรณ์จากประโยชน์ของ AI-
จำเป็น "กังวลวันนี้ของเครื่องมือ AI ปัจจุบัน"ตามที่ครูคนนี้
สำหรับ Paul Salmon ศาสตราจารย์ที่ University of Sunshine Coast ในออสเตรเลีย "ความเฉยเมยของรัฐบาลและประชาชนเกี่ยวกับปัญหาความปลอดภัยของ AI»อธิบายโดยความเข้าใจผิดหลายประการ ในบทสนทนาหลังอธิบายตัวอย่างเช่นว่ามีความจำเป็น "กังวลวันนี้ของเครื่องมือ AI ปัจจุบัน»เทคโนโลยี CES «ทำให้เกิดความเสียหายอย่างมีนัยสำคัญต่อมนุษย์และสังคม"เขากล่าวเสริมโดยเฉพาะการอ้างถึง"การแทรกแซงในการเลือกตั้งการแทนที่งานของมนุษย์การตัดสินใจแบบลำเอียง -การทำ, deepfakes, การบิดเบือนข้อมูลและข้อมูลที่ยุ่งเหยิง-
การรักษาความปลอดภัยไม่ได้เป็นเพียงเรื่องเดียวที่จะถูกเก็บไว้ในระหว่างการประชุมสุดยอด เป็นหมายเหตุบริบทวันพุธที่ 12 กุมภาพันธ์นี้-สิ่งที่แนบมากับ "การปกป้องข้อมูลส่วนบุคคลและความเป็นส่วนตัว», การกล่าวถึงซึ่งมีอยู่มากในเวอร์ชันเริ่มต้นของการประกาศสุดท้ายของการประชุมสุดยอดในที่สุดก็หายไปจากข้อความที่ลงนามโดยหกสิบประเทศ ในแถลงการณ์ตีพิมพ์ในวันแรกของการประชุมสุดยอดผู้พิทักษ์สิทธิอำนาจของฝรั่งเศสนี้รับผิดชอบในการปกป้องสิทธิและเสรีภาพของเราอย่างไรก็ตามยืนยันว่า "เพื่อไม่ลืมสิทธิขั้นพื้นฐานในช่วงเวลาสำคัญนี้-
🔴อย่าพลาดข่าว 01NET ใด ๆ ติดตามเราที่Google NewsETWhatsapp-