trilogue ครั้งที่สาม - การประชุมครั้งที่สามในระหว่างที่สภายุโรปคณะกรรมาธิการและรัฐสภาเจรจาต่อรอง "AI Act", ระเบียบเกี่ยวกับปัญญาประดิษฐ์ - สิ้นสุดในวันอังคารที่ 3 ตุลาคมนี่คือสิ่งที่ต้องจดจำ
ที่ยุโรปอยู่ในการนำไปใช้กฎระเบียบปัญญาประดิษฐ์(ia) ข้อความแรกหลังจากนั้นจีนเพื่อควบคุมภาคที่กระตุ้นความคลั่งไคล้มากที่สุดเท่าที่กังวล? ในวันที่ 2 และ 3 ตุลาคม trilogue ครั้งที่สามการประชุมระหว่างตัวแทนของรัฐสภายุโรปของสภา (27 ประเทศสมาชิก) และคณะกรรมาธิการยุโรป
นักเรียนสหภาพยุโรป (EU) สามคนพยายามมาตั้งแต่ฤดูร้อนปีที่แล้วเพื่อเห็นด้วยกับข้อความเวอร์ชันเดียวตั้งแต่ฤดูร้อนที่ผ่านมา หาก trilogue นี้ทำให้เป็นไปได้ที่จะก้าวไปข้างหน้าในบางจุดก็ยังมีพื้นที่ที่ไม่เห็นด้วย นี่คือสิ่งที่ต้องจดจำ
จะควบคุมระบบเช่น CHATGPT ได้อย่างไร?
นี่คือคำถามที่คนที่ได้ยินได้พยายามตอบเป็นเวลาหลายเดือนตามที่เราอธิบายให้คุณทราบเมื่อเดือนพฤษภาคมที่ผ่านมาเมื่อคณะกรรมาธิการยุโรปเขียนข้อความนี้ในเดือนเมษายน 2564CHATGPTตัวแทนการสนทนาของ Openai ยังไม่สามารถใช้งานได้สำหรับประชาชนทั่วไป ความคลั่งไคล้ของ AI Generative เทคโนโลยีนี้ซึ่งช่วยให้คุณสามารถสร้างข้อความรหัสหรือรูปภาพยังไม่ได้เกิดขึ้น
ในขั้นต้นผู้บริหารในยุโรปได้เลือกใช้ข้อความสำหรับแนวทางความเสี่ยง'IA ถูกควบคุมตามการใช้งานด้วยภาระหน้าที่ที่แข็งแกร่งและการกำกับดูแลที่แข็งแกร่งมากขึ้นหรือน้อยลง ความคิดมีดังนี้: ยิ่งมีความเสี่ยงมากเท่าไหร่ภาระผูกพันที่มีน้ำหนักมากขึ้นในซัพพลายเออร์ของระบบเหล่านี้จะหนัก
แต่ในเดือนพฤศจิกายน 2565 Chatgpt เปิดตัวตามมาไม่กี่เดือนต่อมาโดยระบบอื่น ๆ ที่คล้ายกัน (เช่น Bard หรือ Ernie Bot) เพียงพอที่จะผลักดันสภาและจากนั้นรัฐสภายุโรปต้องการควบคุมการกำเนิดนี้โดยเฉพาะ - โดยการเพิ่มบทบัญญัติใหม่ให้กับสิ่งที่วางแผนไว้ในตอนแรก
MEP จึงกำหนดภาระผูกพันใหม่สำหรับสิ่งที่พวกเขาเรียกว่า "โมเดลรากฐาน- จากช่วงเวลาที่เราเผชิญกับ "โมเดลพื้นฐาน»ไม่ว่าจะมีความเสี่ยงใดก็ตามมันจำเป็นที่จะต้องเคารพกฎจำนวนหนึ่ง คำแนะนำสำหรับส่วนหนึ่งได้เลือกที่จะอยู่ในตรรกะวิธีการเสี่ยงสำหรับ "AI สำหรับการใช้งานทั่วไป- ซึ่งหมายความว่าเมื่อความเสี่ยงต่ำภาระผูกพันที่มีน้ำหนักต่อซัพพลายเออร์ IA จะยังคงน้อยลง
ผลลัพธ์: แนวทางระหว่างทั้งสองสถาบันไม่เห็นด้วย เริ่มต้นด้วยคำศัพท์ -การพูดคุยเกี่ยวกับรูปแบบพื้นฐานอันดับแรกเป็นอันตรายเพราะมันเป็นเทคนิคเกินไป"ความคิดเห็น Arnaud Latil อาจารย์ด้านกฎหมายเอกชนที่ Sorbonne University และสมาชิกของ"Sorbonne Center สำหรับปัญญาประดิษฐ์» (Scai) ในช่วงสองปีที่ผ่านมาสมาชิกสภานิติบัญญัติได้แสดงมิติทางเทคนิคของ AI เพื่อรักษาคำจำกัดความที่กว้างขึ้นโดยมีศูนย์กลางอยู่ที่กรณีการใช้งานไม่ใช่เทคนิค ข้อได้เปรียบ: ด้วยสิ่งนี้ "วิธีการใช้งานได้»ข้อความไม่ได้ถูกล็อคในเทคโนโลยีเฉพาะซึ่งเป็นรุ่นพื้นฐาน ความเสี่ยงที่จะต้องนำข้อความอื่นมาใช้เมื่อเทคโนโลยีใหม่ปรากฏขึ้นน้อยลง แต่ในขณะนี้ทางเลือกของคำศัพท์นี้จะยังไม่ได้รับการตัดสินที่ตารางเจรจาต่อรอง
ปัญหาที่สอง: เราควรชอบแนวทางของรัฐสภาหรือของสภาหรือไม่? แทนที่จะเลือกใช้หนึ่งหรืออื่น ๆ คณะกรรมาธิการยุโรปจะเสนอวิธีที่สาม: มันจะเป็นระบบสองระดับในการควบคุมกรณีเฉพาะของการกำเนิด AI อธิบายบริบทเมื่อวันที่ 3 ตุลาคมแทนที่จะกำหนดภาระผูกพันใหม่สำหรับเครื่องมือเหล่านี้ทั้งหมดผู้บริหารเสนอว่าในระดับแรก "โมเดลรากฐานเพียงแค่ต้องเคารพการปฏิบัติที่ดี - ซึ่งจะไม่ผูกพัน และในระดับที่สองสำหรับแบบจำลองพื้นฐานและ AI สำหรับการใช้งานทั่วไป (ทั้งสองคำอ้างถึง) มีผลกระทบอย่างมีนัยสำคัญ (ดังนั้นจึงมีความเสี่ยงมากที่สุด) ควรปฏิบัติตามข้อผูกพัน เกณฑ์ความแตกต่างระหว่างสองระดับนี้จะยังไม่หยุด แต่ในช่วง3ᵉ Trilogue ผู้เจรจาสามคนจะตรวจสอบหลักการของระบบนี้โดยไม่ต้องดำเนินการ
ตัวกรองการประเมินตนเอง
อีกประเด็นหนึ่งที่ trilogue จัดการให้เห็นด้วย: หลักการของ A "ถูกกรอง"เสนอโดยคณะกรรมาธิการยุโรปซึ่งจะพิจารณาว่าระบบตกอยู่ในหมวดหมู่ของเครื่องมือหรือไม่"ความเสี่ยงสูง- เงินเดิมพันสูงเนื่องจากเป็นกรณีนี้หลังจะต้องปฏิบัติตามภาระผูกพันที่หนักกว่ามาก
ผู้ผลิตระบบที่มีความเสี่ยงสูงจะต้องผ่านขั้นตอนการประเมินและการควบคุมการปฏิบัติตามก่อนก่อนที่ชาวยุโรปจะสามารถเข้าถึงได้ จากนั้นจะถูกบังคับให้ตั้งค่าการควบคุมของมนุษย์ของระบบนโยบายที่มีผลผูกพันของการกำกับดูแลข้อมูลที่ใช้สำหรับการฝึกอบรมนอกเหนือจากการปฏิบัติตามภาระหน้าที่มากมาย (ความแม่นยำและความปลอดภัยทางไซเบอร์)
"ตัวกรอง" นี้คืออะไรที่ทั้งสามสถาบันตกลงกัน? ก่อนการตลาดของพวกเขาซัพพลายเออร์ AI ควรประเมินตนเอง หากระบบของพวกเขาตกอยู่ในหนึ่งในสามหมวดหมู่เหล่านี้ - เครื่องมือเติมเต็มงานพื้นฐานมันไม่ได้แทนที่การประเมินของมนุษย์หรือทำงานเฉพาะงานเตรียมการ - มันจะไม่ได้รับการพิจารณาที่มีความเสี่ยงสูง
มาตรการนี้ได้รับการวิพากษ์วิจารณ์จากสมาคมบางแห่งทำให้ไม่เห็นด้วยกับซัพพลายเออร์ AI ที่จะประเมินตนเองหรือไม่ นี่คือ "ไอเสียซึ่งให้ บริษัท (... ) อำนาจในการตัดสินใจเพียงฝ่ายเดียวว่าระบบ AI ของพวกเขาได้รับการยกเว้นจากข้อกำหนดของกฎระเบียบ AI แม้ว่าจะมีจุดประสงค์เพื่อใช้ในพื้นที่ที่มีความเสี่ยงสูงเช่น (... ) ความยุติธรรมหรือบริการสาธารณะที่จำเป็น»ตัวอย่างเช่นเขียนเกี่ยวกับสมาคมหกสิบแห่งรวมถึงลีกเพื่อสิทธิมนุษยชนในของพวกเขาจดหมายเปิดผนึกตั้งแต่วันที่ 27 กันยายน-
อย่างไรก็ตามจำได้ว่า Arnaud Latil "นี่เป็นหลักการทั่วไปของกฎระเบียบที่มีอยู่จริงซึ่งมีอยู่เช่น GDPR: เราประเมินตนเองและมีการควบคุมหลังจากนั้น- จะมีการรักษาขึ้นมา: หาก AI ทำงานในภาคสุขภาพสิทธิขั้นพื้นฐานและความปลอดภัยก็จะได้รับการพิจารณาโดยอัตโนมัติ "ความเสี่ยงสูง- บริษัท ควรรักษาร่องรอยที่นำไปสู่การประเมินตนเองนี้และในกรณีที่มีการฉ้อโกงควรจ่ายค่าปรับเผ็ด
อย่างเป็นรูปธรรมเรากำลังจะไป "ปล่อยให้กฎระเบียบหนักสำหรับการดำเนินงาน AI และถอนออกเมื่อเป็นอุปกรณ์เสริมหรือขั้นตอนล้วนๆ ดูเหมือนว่าจะส่งเสริมนวัตกรรมและป้องกันโครงสร้างขนาดเล็กหรือใหญ่ถูก จำกัด โดยกฎระเบียบเหล่านี้สำหรับมิติที่ไม่ได้ตั้งใจล้วนๆ"ให้ความสำคัญกับ arnaud latil เงื่อนไขจะต้องยังคงมีการหารือและระบุในช่วง trilogue ถัดไปในวันที่ 25 ตุลาคม
ลิขสิทธิ์อยู่เสมอ
อีกเรื่องหนึ่งที่ผู้เจรจาต่อรองจะได้รับการแก้ไขสั้น ๆ โดยไม่ต้องตัดสินใจคำถาม: การตีพิมพ์ข้อมูลการฝึกอบรมของระบบ AI ที่ได้รับการคุ้มครองโดยกลิขสิทธิ์- จะไม่มีการสังเกตความคืบหน้าในขั้นตอนนี้ รัฐสภายุโรปต้องการบังคับให้ AI Generative เผยแพร่ข้อมูลสรุปของข้อมูลที่ใช้ ภาระผูกพันใหม่นี้ไปในทิศทางที่ถูกต้อง แต่มันจะไม่ไปไกลพออ้อนวอนนักแสดงวัฒนธรรมไม่กี่วันก่อนเริ่มต้นไตรภาค-
ผู้รับผลประโยชน์และผู้เขียนขอให้นักพัฒนา AI เผยแพร่รายการงานที่ครบถ้วนซึ่ง AI ได้รับการฝึกฝน การ จำกัด ผู้ผลิตให้โปร่งใสในเรื่องนี้จะช่วยให้ผู้เขียนยืนยันสิทธิ์ของพวกเขา -คำถามที่จะเกิดขึ้นคือสิ่งนี้คืออะไรการแบ่งปันมูลค่ากับผลลัพธ์ที่สร้างขึ้นโดยระบบ AI และผู้รับผลประโยชน์? แต่ก่อนที่จะตอบคำถามควรมีการลงทะเบียนการใช้งานก่อน», ขีดเส้นใต้ Arnaud Latil
AI ที่ใช้สำหรับวัตถุประสงค์ "ทหาร" หรือ "ความมั่นคงแห่งชาติ" ที่แยกออกจากพระราชบัญญัติ AI?
วิชาอื่น ๆ ยังคงต้องตัดสินใจเช่นระบบ AI ที่ไม่ได้ควบคุมโดยการกระทำของ AI: ควรถูกกีดกันโดยระบบ AI เท่านั้น "ใช้หรือพัฒนาเพื่อวัตถุประสงค์ทางทหารโดยเฉพาะ(ตามที่รัฐสภาต้องการ)? หรือเลือกใช้แนวทางที่กว้างขึ้นไปยังประเทศสมาชิก 27 ประเทศซึ่งต้องการให้ระบบทั้งหมด "ใช้เพื่อการป้องกันและความมั่นคงแห่งชาติ»ถูกแยกออกจากข้อความ: คำถามอาจถูกตัดสินใน trilogue ถัดไปที่กำหนดไว้สำหรับวันที่ 25 ตุลาคม
🔴อย่าพลาดข่าว 01NET ใด ๆ ติดตามเราที่Google NewsETWhatsapp-