ไตรภาคที่สาม - การประชุมครั้งที่สามในระหว่างที่สภายุโรป คณะกรรมาธิการ และรัฐสภาเจรจา "พระราชบัญญัติ AI" ซึ่งเป็นกฎระเบียบด้านปัญญาประดิษฐ์ - ได้ข้อสรุปในวันอังคารที่ 3 ตุลาคม นี่คือสิ่งที่คุณต้องจำ
ยุโรปอยู่ที่ไหนในการรับเอามันกฎระเบียบด้านปัญญาประดิษฐ์(IA) ข้อความแรกตามหลังจีนเพื่อควบคุมภาคส่วนที่กระตุ้นทั้งความกระตือรือร้นและความกังวล? เมื่อวันที่ 2 และ 3 ตุลาคม ไตรภาคที่ 3 เกิดขึ้น ซึ่งเป็นการประชุมระหว่างตัวแทนของรัฐสภายุโรป, สภา (รัฐสมาชิก 27 ประเทศ) และคณะกรรมาธิการยุโรป
สมาชิกสภานิติบัญญัติร่วมสามคนของสหภาพยุโรป (EU) พยายามมาตั้งแต่ฤดูร้อนที่แล้วเพื่อตกลงกับข้อความฉบับเดียว แม้ว่าไตรภาคนี้จะทำให้สามารถก้าวไปข้างหน้าในบางประเด็นได้ แต่ก็ยังยังคงมีความขัดแย้งอยู่ นี่คือสิ่งที่คุณต้องจำ
จะควบคุมระบบเช่น ChatGPT ได้อย่างไร?
นี่เป็นคำถามที่สมาชิกสภานิติบัญญัติร่วมพยายามตอบมาเป็นเวลาหลายเดือนตามที่เราอธิบายให้คุณฟังเมื่อเดือนพฤษภาคมปีที่แล้วเมื่อคณะกรรมาธิการยุโรปเขียนข้อความนี้ในเดือนเมษายน 2564ChatGPTตัวแทนการสนทนาของ OpenAI ยังไม่เปิดให้บริการแก่บุคคลทั่วไป ความคลั่งไคล้ของ generative AI ซึ่งเป็นเทคโนโลยีที่ช่วยให้สามารถสร้างข้อความ โค้ด หรือรูปภาพ ยังไม่เกิดขึ้น
ในตอนแรก ผู้บริหารชาวยุโรปได้เลือกใช้แนวทางตามความเสี่ยงในข้อความAI ถูกควบคุมตามการใช้งานโดยมีพันธกรณีที่ชัดเจนในเรื่องความโปร่งใสและการกำกับดูแลไม่มากก็น้อย แนวคิดมีดังนี้: ยิ่งมีความเสี่ยงมากเท่าใด ภาระผูกพันที่มีน้ำหนักต่อซัพพลายเออร์ของระบบเหล่านี้ก็จะยิ่งหนักมากขึ้นเท่านั้น
แต่ในเดือนพฤศจิกายน 2022 ChatGPT จะเปิดตัวในเดือนพฤศจิกายน 2022 ตามด้วยระบบอื่นๆ ที่คล้ายกันในไม่กี่เดือนต่อมา (เช่น Bard หรือ Ernie Bot) เพียงพอที่จะผลักดันให้สภาและรัฐสภายุโรปต้องการควบคุม AI กำเนิดนี้โดยเฉพาะ โดยการเพิ่มข้อกำหนดใหม่ให้กับสิ่งที่วางแผนไว้เดิม
MEPs จึงได้กำหนดภาระผูกพันใหม่สำหรับสิ่งที่พวกเขาเรียกว่า “โมเดลรากฐาน- นับตั้งแต่วินาทีที่เราต้องเผชิญกับ “แบบจำลองฐานราก »โดยไม่คำนึงถึงความเสี่ยง จะต้องเคารพกฎจำนวนหนึ่ง ในส่วนของสภา เลือกที่จะคงอยู่บนตรรกะของแนวทางตามความเสี่ยง สำหรับ “AI วัตถุประสงค์ทั่วไป- ซึ่งหมายความว่าเมื่อความเสี่ยงต่ำ ภาระผูกพันที่กระทบต่อผู้ให้บริการ AI จะยังคงลดลง
ผลลัพธ์: แนวทางระหว่างทั้งสองสถาบันไม่ตรงกัน เริ่มต้นด้วยคำศัพท์ -ก่อนอื่นเลย การพูดถึงแบบจำลองฐานรากเป็นสิ่งที่อันตราย เพราะมันต้องใช้เทคนิคมากเกินไป» แสดงความคิดเห็น Arnaud Latil อาจารย์ด้านกฎหมายเอกชนที่ Sorbonne University และสมาชิกของ “ศูนย์ปัญญาประดิษฐ์ซอร์บอนน์» (สกส.) เป็นเวลาสองปีแล้วที่ผู้บัญญัติกฎหมายได้ทำงานเพื่อลบมิติทางเทคนิคของ AI เพื่อรักษาคำจำกัดความที่กว้างขึ้น โดยเน้นที่กรณีการใช้งาน ไม่ใช่เทคโนโลยี ข้อดี: ด้วยสิ่งนี้”แนวทางการทำงาน» ข้อความไม่ได้ถูกล็อคเข้ากับเทคโนโลยีเฉพาะของโมเดลพื้นฐาน ความเสี่ยงในการต้องรับข้อความอื่นเมื่อมีเทคโนโลยีใหม่ปรากฏขึ้นมีน้อยลง แต่ในขณะนี้ การเลือกคำศัพท์นี้ยังไม่ได้รับการตัดสินใจที่โต๊ะเจรจา
ปัญหาที่สอง: เราควรสนับสนุนแนวทางของรัฐสภาหรือของสภาหรือไม่? แทนที่จะเลือกอย่างใดอย่างหนึ่ง คณะกรรมาธิการยุโรปจะเสนอวิธีที่สาม: มันจะเป็นระบบสองชั้นในการควบคุมกรณีเฉพาะของ generative AI อธิบายบริบท, วันที่ 3 ตุลาคม. แทนที่จะกำหนดภาระผูกพันใหม่กับเครื่องมือเหล่านี้ ผู้บริหารเสนอว่าในระดับแรก “โมเดลรากฐาน» เพียงแต่ต้องเคารพแนวปฏิบัติที่ดี ซึ่งจะไม่ถือเป็นการจำกัด และในระดับที่สอง สำหรับโมเดล AI พื้นฐานและวัตถุประสงค์ทั่วไป (อ้างถึงทั้งสองคำ) ที่มีผลกระทบอย่างมีนัยสำคัญ (ดังนั้นจึงมีความเสี่ยงมากที่สุด) ควรเคารพภาระหน้าที่ เกณฑ์ในการแยกความแตกต่างระหว่างสองระดับนี้ยังไม่ได้มีการตัดสินใจ แต่ในระหว่างไตรภาคที่ 3 ผู้เจรจาทั้งสามคนจะต้องตรวจสอบหลักการของระบบนี้โดยไม่ต้องนำไปปฏิบัติ
ตัวกรองการประเมินตนเอง
อีกประเด็นหนึ่งที่ไตรภาคสามารถตกลงกันได้: หลักการของ "กรองแล้ว» เสนอโดยคณะกรรมาธิการยุโรปซึ่งจะทำให้สามารถตัดสินได้ว่าระบบจัดอยู่ในประเภทของเครื่องมือหรือไม่”มีความเสี่ยงสูง- เดิมพันมีสูง เพราะหากเป็นกรณีนี้ ฝ่ายหลังจะต้องเคารพภาระผูกพันที่หนักกว่ามาก
ผู้ผลิตระบบที่มีความเสี่ยงสูงจะต้องผ่านขั้นตอนการประเมินและควบคุมความสอดคล้องก่อนจึงจะสามารถเข้าถึงได้โดยชาวยุโรป จากนั้นจะถูกบังคับให้ใช้การควบคุมโดยมนุษย์ซึ่งเป็นนโยบายที่มีผลผูกพันในการควบคุมข้อมูลที่ใช้ในการฝึกอบรม นอกเหนือจากการเคารพภาระผูกพันมากมาย (เช่น ความแม่นยำและความปลอดภัยทางไซเบอร์)
“ตัวกรอง” ที่ทั้งสามสถาบันตกลงกันนี้ประกอบด้วยอะไรบ้าง? ก่อนออกสู่ตลาด ผู้ให้บริการ AI ควรประเมินตนเอง หากระบบจัดอยู่ในหนึ่งในสามประเภท – เครื่องมือทำงานพื้นฐาน ไม่ได้แทนที่การประเมินโดยมนุษย์ หรือดำเนินการเฉพาะงานเตรียมการเท่านั้น ก็จะไม่ถือว่ามีความเสี่ยงสูง
มาตรการนี้ได้รับการวิพากษ์วิจารณ์จากสมาคมบางแห่ง น่าเสียดายว่าขึ้นอยู่กับซัพพลายเออร์ AI ที่จะประเมินตนเอง นี่คือ “ช่องโหว่ซึ่งทำให้บริษัท(…) มีอำนาจตัดสินใจเพียงฝ่ายเดียวว่าระบบ AI ของตนได้รับการยกเว้นจากข้อกำหนดของกฎระเบียบ AI แม้ว่าจะมีจุดประสงค์เพื่อใช้ในพื้นที่ที่มีความเสี่ยงสูงอย่างใดอย่างหนึ่ง เช่น (…) ความยุติธรรมหรือบริการสาธารณะที่จำเป็น" ได้เขียนไว้เป็นตัวอย่างสมาคมประมาณ 60 สมาคม รวมถึง Human Rights League ในสมาคมเหล่านั้นด้วยจดหมายเปิดผนึกวันที่ 27 กันยายน-
อย่างไรก็ตาม Arnaud Latil เล่าว่า “นี่เป็นหลักการทั่วไปของกฎระเบียบเดิมที่มีอยู่เช่นกับ GDPR: เราประเมินตนเอง และจะมีการควบคุมในภายหลัง- มาตรการป้องกันจะเกิดขึ้น: หาก AI ทำงานในภาคสุขภาพ สิทธิขั้นพื้นฐาน และความมั่นคง ก็จะถือว่า AI ทำงานโดยอัตโนมัติ”มีความเสี่ยงสูง- บริษัทควรเก็บร่องรอยที่นำไปสู่การประเมินตนเองนี้ และในกรณีของการฉ้อโกง บริษัทควรจ่ายค่าปรับจำนวนมาก
อย่างเป็นรูปธรรม เราจะ”ทิ้งกฎระเบียบที่เข้มงวดสำหรับ AI สำหรับการใช้งานในการปฏิบัติงาน และลบออกเมื่อเป็นเพียงเหตุการณ์ที่เกิดขึ้นโดยบังเอิญหรือเป็นขั้นตอนล้วนๆ สำหรับฉันดูเหมือนว่าสิ่งนี้ค่อนข้างยุติธรรมในการส่งเสริมนวัตกรรมและป้องกันไม่ให้โครงสร้างไม่ว่าเล็กหรือใหญ่ถูกจำกัดโดยกฎระเบียบเหล่านี้ในมิติที่ไม่ได้ตั้งใจล้วนๆ», ประมาณการ Arnaud Latil เงื่อนไขยังคงต้องมีการหารือและชี้แจงในไตรภาคถัดไปในวันที่ 25 ตุลาคม
ลิขสิทธิ์ยังคงเป็นปัญหา
อีกเรื่องที่ผู้เจรจาจะพูดคุยสั้นๆ โดยไม่ต้องตัดสินคำถาม นั่นคือ การเผยแพร่ข้อมูลการฝึกอบรมจากระบบ AI ที่ได้รับการคุ้มครองโดยลิขสิทธิ์- จะไม่มีความคืบหน้าใด ๆ เกิดขึ้นในระยะนี้ รัฐสภายุโรปต้องการบังคับให้ AI ทั่วไปเผยแพร่ข้อมูลสรุปที่ใช้ พันธกรณีใหม่นี้ดำเนินไปในทิศทางที่ถูกต้องแต่จะไปได้ไกลไม่พอวิงวอนนักแสดงแห่งวัฒนธรรมสองสามวันก่อนเริ่มไตรภาค-
ผู้ถือสิทธิ์และผู้เขียนต้องการให้นักพัฒนา AI เผยแพร่รายการงานที่ AI ได้รับการฝึกอบรมอย่างละเอียดถี่ถ้วน การบังคับให้ผู้ผลิตมีความโปร่งใสในเรื่องนี้จะทำให้ผู้เขียนสามารถยืนยันสิทธิ์ของตนได้ -คำถามที่จะเกิดขึ้นคือ: คุณค่าจะถูกแบ่งปันกับผลลัพธ์ที่สร้างโดยระบบ AI และผู้ถือสิทธิ์อย่างไร แต่ก่อนที่จะตอบต้องมีบันทึกการใช้งานก่อน» ขีดเส้นใต้ Arnaud Latil
AI ใช้เพื่อวัตถุประสงค์ "การทหาร" หรือ "ความมั่นคงของชาติ" ไม่รวมอยู่ในพระราชบัญญัติ AI?
ประเด็นอื่นๆ ยังรอการตัดสินใจ เช่น ระบบ AI ที่ไม่อยู่ภายใต้พระราชบัญญัติ AI ควรยกเว้นเฉพาะระบบ AI หรือไม่ใช้หรือพัฒนาเพื่อวัตถุประสงค์ทางการทหารโดยเฉพาะ» (ตามที่รัฐสภาต้องการ)? หรือเลือกใช้แนวทางที่กว้างขึ้นของประเทศสมาชิก 27 ประเทศที่ต้องการให้ทุกระบบ “ใช้สำหรับการป้องกันและความมั่นคงของชาติ» ไม่รวมอยู่ในข้อความ: คำถามสามารถแก้ไขได้ในไตรภาคถัดไปที่กำหนดไว้ในวันที่ 25 ตุลาคม
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-