เราได้พูดคุยกับคุณเกี่ยวกับพระราชบัญญัติ AI หรือกฎระเบียบด้านปัญญาประดิษฐ์มาหลายเดือนแล้ว แต่คุณยังคงไม่เข้าใจอย่างถ่องแท้ว่าข้อความนี้จะใช้ทำอะไร หลักการสำคัญที่มีอยู่ในนั้น เหตุใดจึงต้องใช้ มีเวลามากเหลือเกิน และมันจะทำให้คุณกังวลได้อย่างไร? บทความนี้เหมาะสำหรับคุณ
-ภาพหลอน" ของChatGPT, นำกลับมาใช้ใหม่ของข้อมูลส่วนบุคคล, ขาดความโปร่งใสของระบบ... ในขณะที่คำถามหรืออาการสะอึกมากมายปิดบังความกระตือรือร้นที่เกิดจาก ChatGPTกลางการเดินทางและเครื่องมือปัญญาประดิษฐ์เจเนอเรชั่นอื่น ๆ สหภาพยุโรปได้ทำงานมาหลายเดือนแล้วในข้อความที่จะควบคุมภาค AI เมื่อวันที่ 11 พฤษภาคม ได้มีการดำเนินการขั้นเด็ดขาด สมาชิกสภาผู้แทนราษฎรได้มอบให้ไฟเขียวครั้งแรกสำหรับ “พระราชบัญญัติ AI”หรือกฎระเบียบของยุโรปเกี่ยวกับ AI- ข้อตกลงทางการเมืองที่บรรลุในคณะกรรมการในรัฐสภายุโรปควรจะนำมาใช้ในการประชุมใหญ่ในช่วงกลางเดือนมิถุนายน
ข้อความซึ่งอยู่บนโต๊ะของเจ้าหน้าที่ยุโรปเป็นเวลาหลายเดือนอาจกลายเป็นหนึ่งในกฎหมายแรกในโลกเกี่ยวกับปัญญาประดิษฐ์ กฎระเบียบสามารถปฏิบัติตามได้ทุกที่ในโลก เช่นเดียวกับกรณีของ GDPR กฎระเบียบเกี่ยวกับข้อมูลส่วนบุคคล แต่หัวข้อจำนวนหนึ่ง เช่น การจดจำใบหน้าหรือเครื่องมือสำหรับสร้างข้อความ โค้ด และรูปภาพ ยังคงก่อให้เกิดความขัดแย้งมากมาย ข้อความนี้จะใช้ทำอะไร มีหลักการสำคัญอะไรบ้าง และจะส่งผลต่อคุณอย่างไร นี่คือสิ่งที่คุณต้องจำ
1. พระราชบัญญัติ AI ประการแรกในสามเสาหลักในการกำกับดูแลภาค AI
หลังจากที่ประเทศจีนซึ่งได้ออกหลักการอันยิ่งใหญ่ไปแล้วพระราชบัญญัติ AI จะเป็นหนึ่งในตำราฉบับแรก ๆ ในโลกที่กำหนดพันธกรณีด้านความโปร่งใสและการกำกับดูแลใหม่สำหรับนักพัฒนาปัญญาประดิษฐ์ โดยมีจุดมุ่งหมายเพื่อยุติ "ป่าตะวันตก" ในปัจจุบัน และจะปกป้องพลเมืองยุโรปได้ดีขึ้น ในกรณีที่ไม่ปฏิบัติตามกฎใหม่เหล่านี้ บริษัทในภาคส่วนนี้มีความเสี่ยงสูง: นอกเหนือจากการถูกแยกออกจากตลาดสหภาพยุโรปแล้ว พวกเขายังต้องจ่ายค่าปรับสูงถึง 30 ล้านยูโรหรือ 4% ของมูลค่าการซื้อขาย
ข้อความนี้ได้รับการออกแบบเป็นนายกรัฐมนตรีและเงินต้นข้อความของชุดองค์ประกอบสามรายการซึ่งจะประกอบขึ้นเป็นกฎหมายยุโรปในอนาคต
- โดยพระราชบัญญัติ AI จะต้องกำหนดให้นักพัฒนาเอไอเช่นOpenAIสำหรับ ChatGPTGoogleสำหรับเบิร์ดและคนอื่นๆ ทั้งหมดพันธกรณีด้านความโปร่งใสและการกำกับดูแลใหม่-
- ประการที่สอง แนวทางในอนาคตซึ่งยังไม่อยู่ระหว่างการอภิปรายแต่นำเสนอเมื่อเดือนกันยายนปีที่แล้ว จะช่วยแก้ไขปัญหาดังกล่าวความรับผิดต่อความเสียหายทางกายภาพหรือทางศีลธรรมที่เกิดจาก AIแก่พลเมืองชาวยุโรป
- ของมาตรฐานทางเทคนิคในที่สุดจะมีการออกในระยะที่สามโดย Cen Cenelec คณะกรรมการยุโรปเพื่อการมาตรฐานด้านอิเล็กทรอนิกส์และเทคนิคไฟฟ้า ส่วนหลังจะชี้แจงทางเทคนิคว่าภาระหน้าที่ของพระราชบัญญัติ AI หมายถึงอะไร -ตัวอย่างเช่น กฎระเบียบกำหนดพันธกรณีด้านความโปร่งใส เมื่อเราพูดอย่างนั้นแล้ว เราไม่ได้พูดทั้งหมด"Arnaud Latil อาจารย์ด้านกฎหมายเอกชนที่มหาวิทยาลัยซอร์บอนน์และสมาชิกของศูนย์ปัญญาประดิษฐ์ซอร์บอนน์ (SCAI) อธิบาย- “ความโปร่งใสสำหรับ generative AI จะไม่เหมือนกับ AI ในการวิเคราะห์คุณภาพผลิตภัณฑ์ในอุตสาหกรรม เป็นการดำเนินการตามความโปร่งใสนี้ซึ่งจะกำหนดโดยคณะกรรมการชุดนี้é” ผู้เชี่ยวชาญกล่าวเสริม
2. มีการควบคุมเฉพาะการใช้ AI เท่านั้น ไม่ใช่ตัว AI เอง
อีกประเด็นที่ต้องทำความเข้าใจ: พระราชบัญญัติ IA ถือเป็นข้อความที่จะควบคุมการใช้งานโดยเฉพาะของเอไอ แนวคิดไม่ใช่การบอกว่าเทคโนโลยีดีหรือไม่ดี แต่ต้องดูว่าเทคโนโลยีนั้นดีหรือไม่ดีมีการใช้งานอย่างไร และการใช้งานนี้มีความเสี่ยงอย่างไรสำหรับพลเมืองชาวยุโรป- AI จะจัดอยู่ในหนึ่งในสี่ประเภทที่กำหนด: ความเสี่ยงที่ยอมรับไม่ได้, ความเสี่ยงสูงมาก, ความเสี่ยงปานกลาง และ AI ที่มีความเสี่ยงต่ำกว่า ทั้งนี้ขึ้นอยู่กับระดับความเสี่ยง นี้ปิรามิดความเสี่ยงจะกำหนดภาระหน้าที่ด้านความโปร่งใสและการกำกับดูแลที่เข้มงวดไม่มากก็น้อยสำหรับนักพัฒนา AIยิ่งมีความเสี่ยงมากขึ้น พันธบัตรก็จะยิ่งแข็งแกร่งขึ้นเท่านั้น
- ที่การใช้ AI ที่ยอมรับไม่ได้เป็นสิ่งต้องห้ามโดยสมบูรณ์ จะเป็นกรณีนี้ เช่น สำหรับการให้คะแนนทางสังคม การจัดอันดับของบุคคลตามความน่าเชื่อถือ สิ่งเดียวกันสำหรับระบบที่มุ่งจัดการโดยใช้เทคนิคอ่อนเกินและกระทำการโดยไม่รู้ตัว... หรือระบบที่ใช้ประโยชน์จากช่องโหว่ของบุคคล
- ที่AI สำหรับการใช้งานที่มีความเสี่ยงสูงจะต้องผ่านขั้นตอนการประเมินและควบคุมความสอดคล้องก่อนจึงจะสามารถเข้าถึงได้โดยชาวยุโรป
สิ่งนี้เกี่ยวข้องกับเครื่องมือสำหรับการจัดการและการดำเนินงานโครงสร้างพื้นฐานที่สำคัญ ระบบ AI ที่เกี่ยวข้องกับการศึกษา บริการภาครัฐและเอกชนที่จำเป็น การโยกย้าย ทรัพยากรมนุษย์ และการควบคุมชายแดน เครื่องมือวิเคราะห์เรซูเม่ที่จัดอันดับผู้สมัครงานจะจัดอยู่ในหมวดหมู่นี้
โดยเฉพาะอย่างยิ่ง บริษัทต่างๆ จะต้องจัดให้มีระบบการบริหารความเสี่ยง การควบคุมระบบโดยมนุษย์ เอกสารทางเทคนิค และนโยบายที่มีผลผูกพันในการกำกับดูแลข้อมูลที่ใช้สำหรับการฝึกอบรม พวกเขายังต้องเคารพภาระหน้าที่ด้านความถูกต้อง ความทนทาน และความปลอดภัยทางไซเบอร์... การปฏิบัติตามข้อกำหนดเหล่านี้จะได้รับการตรวจสอบโดยหน่วยงานกำกับดูแลที่ได้รับมอบหมายในแต่ละรัฐสมาชิก 27 ประเทศ
- ที่การใช้ความเสี่ยงปานกลางอยู่ภายใต้ข้อผูกพันด้านความโปร่งใสต่อผู้ใช้เท่านั้น
- ที่การใช้งานที่มีความเสี่ยงต่ำไม่ได้ถูกควบคุมโดย AI Act เช่น วิดีโอเกม AI หรือตัวกรองสแปม
3. การยอมรับกฎระเบียบของยุโรปใช้เวลานาน
ข้อเสนอของคณะกรรมาธิการยุโรปเริ่มตั้งแต่วันที่ 21 เมษายน 2564 เหตุใดข้อความจึงยังไม่ถูกนำมาใช้ในปัจจุบัน ในเมื่อการเรียกร้องให้ควบคุมภาคส่วนนี้เปิดตัวมาหลายเดือนแล้ว ซึ่งมาจากตัวแทนของสหภาพยุโรปจำนวนมากมากกว่าผู้เล่น AI เช่นSam Altman หัวหน้าของ Open AI ที่อยู่เบื้องหลัง ChatGPT- ประการแรกเนื่องจากการปรับใช้กฎระเบียบภายในสหภาพยุโรปต้องใช้เวลาหลายปี GDPR ใช้เวลาเจ็ดปีจึงจะกลายเป็นกฎหมาย และยังโต้แย้งรองประธานคณะกรรมาธิการยุโรป Margrethe Vestager เมื่อวันที่ 8 พฤษภาคม "เราต้องไปเร็วกว่านี้» เพื่อปรับกฎหมายของเราให้เข้ากับ AI
เพื่อให้ข้อความกลายเป็นกฎหมายยุโรป เรามักลืมไปว่าจำเป็นต้องมีข้อตกลงจากหน่วยงานหลักสามหน่วยงาน ได้แก่ คณะกรรมาธิการยุโรป (ผู้บริหาร) รัฐสภายุโรป (เสียงของพลเมือง) และสภา (ซึ่งเป็นตัวแทนของประเทศสมาชิก 27 ประเทศ) ). ประการแรก อวัยวะทั้งสามจะต้องปล่อยตำแหน่งเดียว คณะกรรมการคือผู้ที่เขียนข้อความ สภาได้ดำเนินการเกี่ยวกับกฎระเบียบแล้วและได้ออกการประนีประนอมเมื่อฤดูใบไม้ร่วงปีที่แล้ว – พร้อมการปรับเปลี่ยน และตอนนี้ก็ถึงคราวของรัฐสภาที่จะเสนอข้อความเดียว เส้นทางที่อาจยาวไกลและเจ็บปวด ในข้อความนี้ สมาชิกสภาผู้แทนราษฎร 705 คนได้ออกการแก้ไขหลายพันรายการ
อ่านเพิ่มเติม: ยุโรปไม่ได้ปกป้องความเป็นส่วนตัวของเราจาก Gafam เพียงพอ ตามการระบุของ NGO
เมื่อถึงขั้นตอนนี้แล้ว ซึ่งควรจะเป็นเช่นนั้นในระหว่างการลงคะแนนเสียงในสมัชชาใหญ่ในช่วงกลางเดือนมิถุนายน สิ่งที่เรียกว่า Trilogue จะเริ่มต้นขึ้น ศพทั้ง 3 นั่งอยู่รอบโต๊ะและต้องหาจุดร่วมร่วมกันในข้อความเดียวก่อนการโหวตครั้งสุดท้ายครั้งใหญ่
4. การมาถึงของ ChatGPT ทำให้การถกเถียงยืดเยื้อยาวนานขึ้น
ในระหว่างกระบวนการที่ยาวนานนี้ มีเหตุการณ์สำคัญที่ไม่คาดคิดเกิดขึ้น:ChatGPT-ข้อความนี้ถูกเสนอเมื่อวันที่ 21 เมษายน 2021, ทั้งหลายเดือนก่อนการกำเนิดของ AI- ในขณะนั้น คาดว่าแนวทางที่อิงตามความเสี่ยงซึ่งนำมาใช้กับ GDPR, กฎระเบียบข้อมูลส่วนบุคคล หรือ DSA แล้วพระราชบัญญัติบริการดิจิทัลเหมาะสมแล้ว
อ่านเพิ่มเติม: วิธีที่สตาร์ทอัพท้าทายให้ Google ให้คุณควบคุมข้อมูลส่วนตัวของคุณกลับคืนมา
อย่างไรก็ตาม ด้วยการเปิดตัว ChatGPT ในเดือนพฤศจิกายน 2565 และการระเบิดของ generative AI และเครื่องมือสร้างเนื้อหาทั้งหมด”เราตระหนักค่อนข้างเร่งด่วนว่าในความเป็นจริงแล้ว มีเครื่องมือที่ใช้งานได้หลายอย่าง และถ้าเราอยากที่จะเข้าใจมันโดยรวม เราก็จะต้องถอยห่างจากแนวทางการใช้งาน» Arnaud Latil อธิบาย การแปล: เมื่อถึงเวลาที่ MEP จะต้องตรวจสอบกฎระเบียบและตกลงกัน ChatGPT ได้สับไพ่ใหม่ เราตระหนักว่า AI เดียวกันอาจมีการใช้งานและความเสี่ยงที่แตกต่างกัน MEPs สงสัยว่าพวกเขาไม่ควรเพิ่มบทบัญญัติเฉพาะให้กับปัญญาประดิษฐ์นี้โดยเฉพาะหรือไม่
แนวทางการใช้งานก่อให้เกิดปัญหาอะไรบ้าง? ในด้านหนึ่งสิ่งนี้ช่วยให้มุ่งความสนใจไปที่การอภิปรายสาธารณะในสิ่งที่ร้ายแรงที่สุดและอันตรายที่สุด และอันดับที่สองซึ่งไม่ใช่เรื่องบังเอิญ แต่อีกทางหนึ่ง”การแยกแยะตามระดับความเสี่ยง ประการแรก ไม่ใช่วิทยาศาสตร์ที่แน่นอน อันตรายของแนวทางความเสี่ยงคือการแสวงหาผลประโยชน์» ขีดเส้นใต้ Arnaud Latil เมื่อสงสัยว่า AI มีความเสี่ยงหรือไม่ ผู้บัญญัติกฎหมายจะต้องอาศัยความคิดเห็นของนักวิทยาศาสตร์ แต่ยังขึ้นอยู่กับความเชื่อมั่นทางการเมืองในสิ่งที่เขาพิจารณาว่าเป็นสิ่งที่มีความเสี่ยงด้วย
ที่กล้องเสริมซึ่งได้รับการยืนยันในฝรั่งเศสโดยสภารัฐธรรมนูญระหว่างการแข่งขันกีฬาโอลิมปิกที่ปารีส ถือเป็นความเสี่ยงหรือไม่ -บางคนจะบอกคุณว่าใช่ คนอื่นๆ ไม่ใช่ และหลังจากนั้นไม่นาน ความเชี่ยวชาญทางวิทยาศาสตร์ทั้งหมดจะถูกกำหนดโดยฝ่ายการเมือง», สรุปอาจารย์.
5. MEPs เพิ่ม... เยอะมาก
ภายในรัฐสภายุโรป คำถามที่ว่าจะเพิ่มกฎเฉพาะให้กับ generative AI หรือไม่นั้นเป็นเรื่องที่ถกเถียงกันอย่างถึงพริกถึงขิง และสุดท้าย เจ้าหน้าที่เห็นว่าจำเป็นต้องเพิ่มภาระผูกพันสำหรับ AI เหล่านี้โดยเฉพาะ โดยเฉพาะอย่างยิ่งในแง่ของความโปร่งใสและการเคารพในสิทธิขั้นพื้นฐาน สมาชิกสภาผู้แทนราษฎรเพิ่ม:ภาระผูกพันในการฝึกอบรมและพัฒนา generative AI ในลักษณะที่ไม่ละเมิดสิทธิขั้นพื้นฐาน โดยเฉพาะอย่างยิ่งเสรีภาพในการแสดงออก สิ่งนี้ยังไม่ชัดเจนในขณะนี้», วิเคราะห์ Arnaud Latil. อีกองค์ประกอบหนึ่งที่เจ้าหน้าที่นำมา: การฝึกอบรม generative AI ต่อจากนี้ไปจะต้องไม่ละเมิดลิขสิทธิ์
องค์ประกอบเหล่านี้อยู่ไกลจากการเป็นเพียงองค์ประกอบเดียว MEP ได้ขยายรายการการใช้ที่ต้องห้ามเมื่อเปรียบเทียบกับสิ่งที่คณะกรรมาธิการและสภาได้วางแผนไว้ AI ที่ใช้การจดจำอารมณ์ ซึ่งนายจ้างหรือตำรวจสามารถใช้เพื่อระบุพนักงานหรือคนขับที่เหนื่อยล้า ได้ถูกแบนโดยสมบูรณ์แล้ว ความตึงเครียดที่เพิ่มขึ้นเป็นพิเศษ: เจ้าหน้าที่ยังได้สั่งห้ามการระบุตัวตนด้วยไบโอเมตริกระยะไกล (เช่น การจดจำใบหน้า) ในที่สาธารณะ ทั้งแบบเรียลไทม์และหลังเหตุการณ์จริง การใช้ย้อนหลังยังคงเป็นไปได้หากผู้พิพากษาอนุญาตล่วงหน้า
เมื่อมาถึงจุดนี้ เส้นยังคงสามารถเคลื่อนไหวได้จนกว่าจะถึงการลงคะแนนเสียงครั้งสุดท้าย แต่สำหรับผู้รายงานร่วมของข้อความนี้ แบรนโด เบนิเฟย์ สิ่งสำคัญไม่ได้อยู่ที่นั่น พระราชบัญญัติ AI ซึ่งจะควบคุมภาคส่วนที่กำลังเติบโต ยังมีจุดมุ่งหมายเพื่อบรรเทาความกังวลที่เกิดจาก AI เช่น ผลกระทบต่อการจ้างงานและประชาธิปไตย เขาอธิบายว่า: “ด้วยข้อความของเราที่เราแสดงสังคมแบบไหนที่เราต้องการสังคมที่ (...) การตรวจรักษาแบบคาดการณ์ การจัดหมวดหมู่ทางชีวภาพ การจดจำอารมณ์ และการเลือกปฏิบัติของภาพใบหน้าบนอินเทอร์เน็ต ถือเป็นแนวทางปฏิบัติที่ยอมรับไม่ได้-
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-