คณะกรรมการนำร่องแห่งชาติด้านจริยธรรมดิจิทัล (CNPEN) พิจารณาว่า GENERAL AI ที่เข้าถึงได้สำหรับประชาชนทั่วไปจะต้องจัดว่าเป็นระบบที่มีความเสี่ยงสูงในความเห็นที่ปรึกษา สิ่งนี้หมายความว่าอย่างไร และผลที่ตามมาสำหรับกฎระเบียบของยุโรปเกี่ยวกับ AI ที่ปัจจุบันถูกนำมาใช้ภายในสหภาพยุโรปคืออะไร
นี่เป็นคำแนะนำที่ต้องทำให้นักพัฒนาปัญญาประดิษฐ์อัจฉริยะ (AI) สะดุ้ง เมื่อวันพุธที่ 5 กรกฎาคม คณะกรรมการนักบินแห่งชาติด้านจริยธรรมดิจิทัล (CNPEN) ได้เผยแพร่ความเห็นที่ปรึกษาเกี่ยวกับเทคโนโลยีนี้ องค์กรฝรั่งเศสแห่งนี้เชื่อว่าโมเดลพื้นฐานที่วางขายในตลาดและระบบ AI เชิงสร้างสรรค์จะต้องได้รับการพิจารณาว่าเป็น “ระบบที่มีความเสี่ยงสูง» ซึ่งเป็นการจำแนกประเภทที่กำหนดไว้ในกฎระเบียบของยุโรปว่าด้วย AI (หรือ "พระราชบัญญัติ AI")ขณะนี้อยู่ระหว่างการสนทนาภายในสหภาพยุโรป (EU) นับตั้งแต่การถือกำเนิดของ ChatGPT เมื่อเดือนพฤศจิกายนปีที่แล้วและการแข่งขันเพื่อ AI ที่เกิดขึ้น สมาชิกสภานิติบัญญัติของยุโรปต่างสงสัยว่า AI กำเนิดไม่ควรอยู่ภายใต้บทบัญญัติพิเศษหรือไม่
เทคโนโลยีนี้ซึ่งช่วยให้สามารถสร้างข้อความ โค้ด และรูปภาพจากคำสั่งได้ ทำให้เกิดทั้งความตื่นเต้นและความกังวล นอกจากความกลัวที่เกี่ยวข้องกับผลกระทบต่อการจ้างงานแล้ว เทคโนโลยีนี้ยังนำไปสู่ปัญหาข้อมูลที่ไม่ถูกต้อง การรักษาความลับของข้อมูล การใช้ในทางที่ผิด หรือแม้แต่การจัดสรรผลงานของผู้สร้างที่สร้างโดย AIโดยไม่อยู่ภายใต้การควบคุมของกฎหมายในขณะนี้เมื่อเดือนกุมภาพันธ์ที่ผ่านมา Jean-Noël Barrot รัฐมนตรีกระทรวงดิจิทัลได้ติดต่อกับองค์กรฝรั่งเศสแห่งนี้ที่ก่อตั้งในปี 2019 เพื่อ “ให้ความกระจ่างแก่การอภิปรายสาธารณะเกี่ยวกับประเด็นจริยธรรมดิจิทัล- ห้าเดือนต่อมา ฝ่ายหลังได้ออกความคิดเห็นตามที่เขาแนะนำภาระผูกพันที่หนักกว่าสำหรับ AI สาธารณะทั่วไป- เขาแนะนำให้แยกแยะโมเดลเหล่านี้จากโมเดลที่เผยแพร่ในรูปแบบโอเพ่นซอร์ส
การบอกว่า AI ทั่วไปเป็นระบบที่มีความเสี่ยงสูง นั่นหมายความว่าอย่างไร
แม้ว่าระบบสาธารณะทั่วไปจะอยู่ภายใต้ข้อผูกพันที่เข้มงวด แต่เครื่องมือการเข้าถึงแบบเปิดจะต้องเคารพต่อข้อผูกพันด้านความโปร่งใสที่เบากว่ามากเท่านั้น ที่จริงแล้วพระราชบัญญัติ AI ได้กำหนดปิรามิดความเสี่ยงที่ประกอบด้วยสี่ประเภท รวมถึงกลุ่มของ AI ที่มีความเสี่ยงสูงด้วย ยิ่งมีความเสี่ยงที่ AI เป็นตัวแทนมากเท่าใด นักพัฒนา AI ก็จะยิ่งมีความโปร่งใสและการกำกับดูแลมากขึ้นเท่านั้น
การกล่าวว่า AI เจนเนอเรชั่นกระแสหลักควรได้รับการพิจารณาว่าเป็นระบบที่มีความเสี่ยงสูง หมายความว่านักพัฒนาจะต้องใช้มาตรการป้องกันและขั้นตอนที่เข้มงวด หากข้อความถูกนำมาใช้ตามที่เป็นอยู่ บริษัทที่เกี่ยวข้องจะต้องสร้างระบบการบริหารความเสี่ยง นโยบายที่มีผลผูกพันสำหรับการกำกับดูแลข้อมูลที่ใช้สำหรับการฝึกอบรม หรือแม้แต่การควบคุมระบบโดยมนุษย์ ในทางทฤษฎีแล้ว พวกเขาควรผ่านขั้นตอนการประเมินและควบคุมความสอดคล้องล่วงหน้าก่อนที่ชาวยุโรปจะสามารถเข้าถึงได้
โมเดลกระแสหลักเหล่านี้คืออะไร? เราพบ ChatGPT การแชทแบบสนทนาของ OpenAI และคู่แข่งเช่น Bard (จาก Google) เครื่องมือสร้างภาพเช่น Dall-E หรือกลางการเดินทาง- ท้ายที่สุดแล้ว คณะกรรมการพิจารณาว่าระบบเหล่านี้ซึ่งประชาชนใช้มากกว่าระบบอื่นๆ จะต้องได้รับการดูแลมากกว่า ในทางกลับกัน โมเดลที่เผยแพร่เป็น "โอเพ่นซอร์ส" ซึ่งปัจจุบันได้รับความนิยมน้อยกว่าจะอยู่ภายใต้ "ภาระหน้าที่ของความโปร่งใสและการประเมินผลโดยนักออกแบบ" เว้นแต่จะใช้ในภาคส่วนที่ถือว่า "มีความเสี่ยงสูง» – ภาคส่วนที่กำหนดโดยพระราชบัญญัติ AI เช่น สุขภาพ หรือการสรรหาบุคลากร
ข้อควรระวัง แหล่งข้อมูลที่มีคุณภาพ การประเมิน... คำแนะนำอื่นๆ จากคณะกรรมการจริยธรรม
จากนั้นคณะกรรมการจะให้คำแนะนำอื่นๆ หลายประการ ซึ่งบางครั้งก็ค่อนข้างคลุมเครือ เช่น ข้อเท็จจริงที่ว่า “ผู้มีบทบาททางเศรษฐกิจและหน่วยงานสาธารณะจะต้องใช้ความระมัดระวังด้วยความรวดเร็วในการนำระบบ generative AI มาใช้ และวางแผนการประเมินเบื้องต้นและต่อเนื่อง- ตอบสนองต่อปัญหาแหล่งที่มาที่ AI นำเข้ามาเพื่อการฝึกอบรมซึ่งรวมถึงข้อมูลที่ไม่ถูกต้องแล้วจบลงด้วยการตอบสนองของตัวแทนการสนทนา คณะกรรมการเขียนว่านักออกแบบจะต้อง “นิยมใช้แหล่งที่มีคุณภาพตัดสินตามเกณฑ์ที่กำหนดไว้อย่างชัดเจนสำหรับการสร้างและการใช้คลังการเรียนรู้ของโมเดล AI ทั่วไปตลอดจนการปรับให้เหมาะสม-
เพื่อหลีกเลี่ยงอคติและการเลือกปฏิบัติ องค์กรยังก้าวไปข้างหน้าด้วยการสร้างหน่วยงานควบคุมและการดำเนินการประเมินเชิงปริมาณ ซึ่งจะเกี่ยวข้องกับการเผยแพร่การประเมินนี้พร้อมกับการเปิดตัวแบบจำลองพื้นฐาน ผู้เขียนความคิดเห็นยังแนะนำให้ใช้เครื่องมือสำหรับ “ลายน้ำ» ทำให้สามารถแยกความแตกต่างระหว่างการผลิตของมนุษย์กับที่สร้างขึ้นโดยเครื่องมือ AI ได้ การปรับเปลี่ยนลิขสิทธิ์ในแง่ของเทคนิค AI เชิงสร้างสรรค์» ยังแนะนำอีกด้วย
ข้อเสนอที่ตั้งใจจะแบกน้ำหนักในกรุงบรัสเซลส์?
ด้วยข้อความปรึกษาล้วนๆ นี้ คณะกรรมการตั้งใจที่จะชั่งน้ำหนักจุดยืนของฝรั่งเศสที่กำลังเจรจาภายใน Trilogue: AI Act หลังจากได้รับการศึกษาโดยสภานิติบัญญัติแต่ละแห่งของสหภาพยุโรป (คณะกรรมาธิการยุโรป ประเทศสมาชิก 27 ประเทศและ รัฐสภายุโรป) ตอนนี้จะต้องเป็นเรื่องของการประนีประนอมระหว่างสถาบันทั้งสามนี้ และอาจเป็นได้ว่าเวอร์ชันสุดท้ายมีข้อกำหนดเฉพาะสำหรับ AI ทั่วไป
ข้อความเริ่มต้นที่ออกโดยคณะกรรมาธิการยุโรปเขียนก่อน “ChatGPT mania” เมื่อวันที่ 21 เมษายน 2021 เมื่อChatGPTเปิดตัวในเดือนพฤศจิกายน 2565 รัฐสภายุโรปกำลังศึกษากฎระเบียบ ซึ่งผลักดันให้เพิ่มข้อกำหนดใหม่ที่ใช้กับ AI ประเภทนี้เท่านั้น โดยขัดกับคำแนะนำของผู้เชี่ยวชาญบางคน
บริษัทที่พัฒนาเครื่องมือกำเนิดเหล่านี้กำลังรณรงค์เพื่อตำแหน่งตรงกันข้าม โดยเชื่อว่า generative AI ไม่ใช่ระบบที่มีความเสี่ยงสูง ฝ่ายหลังแย้งเป็นพิเศษว่าภาระผูกพันที่หนักเกินไปอาจบังคับให้พวกเขาออกจากตลาดยุโรป - ซึ่งเป็นเหตุผลที่เคยมีขึ้นSam Altman ผู้ก่อตั้ง OpenAI ผู้อยู่เบื้องหลัง ChatGPT ก่อนที่จะถอยกลับ- คณะกรรมการจริยธรรมจึงวางตัวเองอยู่ในค่ายของผู้ที่คิดว่าข้อกำหนดพิเศษและภาระหน้าที่ที่มากขึ้นมีความจำเป็นสำหรับ AI ประเภทนี้ คงต้องรอดูกันต่อไปว่าจะมีการตัดสินอะไรใน Trilogue ซึ่งเป็นขั้นตอนที่ประกอบด้วยการนำหน่วยงานของสหภาพยุโรปทั้งสามมารวมตัวกันที่โต๊ะเดียวกันก่อนการลงคะแนนเสียงครั้งสุดท้ายครั้งใหญ่ การประชุมครั้งต่อไปจะมีขึ้นในวันที่ 18 กรกฎาคม
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : ประกาศของ CNPEN วันที่ 5 กรกฎาคม 2023