เป็นเวลาเกือบสองปีแล้วที่มีการเจรจาเรื่องหนึ่งอย่างดุเดือดในสภาและรัฐสภายุโรป นั่นคือคำจำกัดความของ AI ประเด็นสำคัญคือการประยุกต์ใช้กฎระเบียบในอนาคตซึ่งจะกำหนดว่า AI ใดที่สามารถนำไปใช้ในสหภาพยุโรปได้ โดยมีสิ่งที่ปกป้องสิทธิและเสรีภาพของเรา
รู้ไหมว่ากหม้อหุงข้าวหรือเทอร์โมสตัทได้รับการพิจารณาในคราวเดียวเช่นปัญญาประดิษฐ์ในลักษณะเดียวกับChatGPTและ DALL-E วันนี้? ว่าคำที่ใช้ในทุก ๆ ด้านนับตั้งแต่การปฏิวัติ AI ครั้งล่าสุดนั้นไม่ได้มีความหมายเหมือนกันในสหรัฐอเมริกาและในยุโรปใช่ไหม และนั่นไม่ใช่คำถามเชิงวาทศิลป์ แต่สมาชิกสภานิติบัญญัติของยุโรปได้ทำงานมาหลายเดือนเพื่อตกลงกันว่าปัญญาประดิษฐ์คืออะไรอะไรคือความเสี่ยงของชาวยุโรป 447 ล้านคนและบริษัทเทคโนโลยีทั้งหมด? ไม่มากหรือน้อยไปกว่าการประยุกต์ใช้กฎระเบียบในอนาคตเกี่ยวกับปัญญาประดิษฐ์ – เรียกว่า “พระราชบัญญัติเอไอ-
เช่นเดียวกับในปี 2016 เมื่อผู้บริหารชาวยุโรปนำกฎระเบียบเกี่ยวกับข้อมูลส่วนบุคคล (GDPR) มาใช้ คณะกรรมาธิการยุโรปต้องการตั้งกฎในภาคส่วนที่มีน้อยหรือไม่มีเลย พระราชบัญญัติ AI ในอนาคตจะกำหนดประเภทของ AI ที่สามารถนำไปใช้ในยุโรป ขั้นตอนใด และบริษัทที่มีต้นทุนเท่าใดจะต้องดำเนินการเพื่อเข้าถึงตลาดสหภาพยุโรป (EU)
ควบคุมไม่ใช่อัลกอริทึม แต่เป็นการใช้งาน
และเหมือนกอัลกอริธึมสามารถเปิดใช้งานการตรวจหามะเร็งตั้งแต่เนิ่นๆ รวมถึงการจดจำใบหน้าขนาดใหญ่บนท้องถนน ผู้บริหารชาวยุโรปได้เลือกใช้แนวทางเฉพาะ เขาเลือกที่จะควบคุมไม่ใช่เทคโนโลยี (อัลกอริธึม) แต่เป็นการใช้งานที่บริษัทเหล่านี้สร้างขึ้น อย่างเป็นรูปธรรมยิ่ง AI แสดงถึงความเสี่ยงมากเท่าไรเพื่อเสรีภาพหรือชีวิตส่วนตัวของเราและยิ่งจะต้องอยู่ภายใต้ข้อจำกัดด้านกฎระเบียบมากขึ้นเท่านั้น– ซึ่งสามารถไปไกลถึงการห้ามได้
แต่เรากำลังพูดถึงปัญญาประดิษฐ์อะไร? และกฎหมายจะกำหนดได้อย่างไรให้รวม AI ในปัจจุบันและ AI ในอนาคตด้วย เพื่อแก้ไขปัญหานี้ ผู้เขียนพระราชบัญญัติ AI ต้องหันไปหาผู้ที่เกี่ยวข้องเป็นหลักก่อน นั่นคือ นักวิทยาศาสตร์คอมพิวเตอร์
-ในทางวิทยาศาสตร์ มีความคลุมเครืออย่างมากเกี่ยวกับคำนี้ไอโอวา »
-อีในทางวิทยาศาสตร์ มีความคลุมเครืออย่างมากเกี่ยวกับคำนี้AI” Vincent Guigue ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่ AgroParisTech อธิบาย -ในช่วงทศวรรษที่ 50เวลาที่คำนี้ AI ถูกสร้างขึ้นโปรแกรมใดๆ ส่วนอัลกอริทึมเล็กๆ น้อยๆช่วยให้คุณสามารถเพิ่มประสิทธิภาพและทำให้งานเป็นอัตโนมัติมีพื้นฐานมาจากปัญญาประดิษฐ์» เขารายงาน -ในกหม้อหุงข้าวเราอาจพูดได้ว่ามีตรรกะคลุมเครือ AI เนื่องจากการที่ข้าวจะหยุดหุง โหมดการทำอาหารจะต้องหยุดด้วยวิธีที่ค่อนข้างชาญฉลาด ซึ่งนอกเหนือไปจากการเปลี่ยนแปลงอุณหภูมิธรรมดาๆ อันที่จริง มันเป็นสูตรเล็กๆ น้อยๆ ที่ไม่มีอะไรเลย เป็นบรรทัดของโค้ด“เขาพูดต่อ
จนถึงช่วงทศวรรษที่ 80/90 แนวโน้มส่วนใหญ่ในกิจกรรมสาขานี้คือปัญญาประดิษฐ์เชิงสัญลักษณ์ซึ่งเป็นที่มาของระบบผู้เชี่ยวชาญครั้งแรก- โดยเป็นรูปธรรม มันเกี่ยวข้องกับการสร้างแบบจำลองชุดสัญลักษณ์ในโปรแกรมคอมพิวเตอร์ซึ่งทำซ้ำการใช้เหตุผลของมนุษย์ และ "เมื่อเราคิดวิธีวิเคราะห์ข้อมูลทางสถิติได้การเรียนรู้ของเครื่องซึ่งในปัจจุบันส่วนใหญ่เป็น AI ในปัจจุบัน มีคนบอกเราว่า“คุณสนใจ AI นิดหน่อย แต่ AI ไม่ใช่อย่างนั้น” Vincent Guigue เล่า
ตั้งแต่ปี 2012 เริ่มต้นยุคของการเรียนรู้อย่างลึกซึ้งโดยเครื่องจักรจะบูรณาการความรู้และเรียนรู้ด้วยตนเองด้วยข้อมูลซึ่งขับเคลื่อนโดยYoshua Bengio, Yann Le Cun และ Geoffrey Hinton บิดาผู้ก่อตั้งทั้งสามของ AI สาขานี้ และ "ทีละเล็กทีละน้อย, คำว่า“ปัญญาประดิษฐ์”กำหนดการเรียนรู้ของเครื่อง- มากกว่าการฟื้นตัวของคำนี้ไม่เหมือนกันทั่วโลก- ในสหรัฐอเมริกา ถ้าเราพูดว่า “AI” ในปัจจุบันก็คือการเรียนรู้ของเครื่อง- ในฝรั่งเศส ในชุมชนวิทยาศาสตร์ ถ้าเราพูดว่า« ไอโอวา »ปัจจุบันนี้มีความคลุมเครืออย่างมาก เนื่องจากชุมชนเชิงสัญลักษณ์ยังคงแข็งแกร่งมาก ดังนั้นผู้คนจึงยังคงอยู่ในสถานะเดิมที่พูดว่า "ไม่ ไม่ AI คือพวกเรา" และการเรียนรู้ของเครื่อง,มันเป็นส่วนน้อยมาก มันเป็นอย่างอื่น» ศาสตราจารย์ตั้งข้อสังเกต
อ่านเพิ่มเติม: ปัญญาประดิษฐ์: การเรียนรู้ของเครื่องทำงานอย่างไร
เมื่อคำถามมาถึงโต๊ะสมาชิกสภานิติบัญญัติ...
และถ้าการทะเลาะวิวาทกันในขอบเขตนี้ไม่ส่งผลกระทบที่สำคัญในทางวิทยาศาสตร์มันก็จะกลายเป็นคำถามสำคัญเมื่อเรื่องของ AI มาถึงโต๊ะของสมาชิกสภานิติบัญญัติแห่งยุโรป- ปัญญาประดิษฐ์หมายถึงอะไร มันเริ่มต้นที่ไหน และสิ้นสุดที่ไหน? การค้นหาคำจำกัดความทั่วไปนั้นมีความซับซ้อนมากขึ้น เนื่องจากกระบวนการนิติบัญญัติของยุโรปกำหนดให้มีการจัดตำแหน่งหน่วยงานทั้งสามเพื่อให้ผ่าน "กฎระเบียบ" ซึ่งเป็นกฎหมายประเภทหนึ่งที่บังคับใช้ทันทีภายในสหภาพยุโรป ข้อเสนอของคณะกรรมาธิการจะต้องได้รับการรับรองโดยสภาและรัฐสภายุโรป ซึ่งอาจใช้เวลาหลายเดือนหรือหลายปี
คำจำกัดความที่กว้างแต่เป็นเทคโนโลยีสำหรับคณะกรรมาธิการ
คณะกรรมาธิการยุโรปเป็นกลุ่มแรกที่เข้าสู่เวทีนี้เมื่อเกือบสองปีที่แล้ว เธอคือผู้เป็นที่มาของข้อเสนอสำหรับพระราชบัญญัติ AI กฎระเบียบนี้ซึ่งลงวันที่ 21 เมษายน 2564 เธอเลือกใช้คำจำกัดความกว้างๆ ของ AI- และ "ระบบปัญญาประดิษฐ์» ถูกกำหนดให้เป็น “ซอฟต์แวร์ซึ่งได้รับการพัฒนาโดยวิธีใดวิธีหนึ่งหรือมากกว่านั้นเทคนิคและแนวทางที่ระบุไว้ในภาคผนวก Iและสำหรับชุดวัตถุประสงค์ที่กำหนดโดยมนุษย์ สามารถสร้างผลลัพธ์ เช่น เนื้อหา การคาดคะเน คำแนะนำ หรือการตัดสินใจได้สภาพแวดล้อมที่มีอิทธิพลต่อที่เขาโต้ตอบด้วย-
ภาคผนวกที่ฉันระบุไว้สามประเภทเทคนิคอัลกอริธึม: ระบบการเรียนรู้ด้วยตนเอง (ที่มีชื่อเสียงการเรียนรู้ของเครื่อง) ระบบลอจิคัล และระบบสถิติ ในข้อความเริ่มต้น คณะกรรมาธิการสามารถปรับปรุงเทคโนโลยีเหล่านี้ในภาคผนวกผ่านขั้นตอนได้เร็วกว่าการเปลี่ยนแปลงกฎระเบียบมาก สิ่งนี้ทำให้สามารถรวม AI ใหม่ทั้งหมดได้ และป้องกันไม่ให้กฎหมายล้าสมัยเร็วเกินไป
ความพิเศษของคำจำกัดความนี้ก็คือ “มันเป็นเทคโนโลยีที่มีการอ้างอิงถึงการเรียนรู้ของเครื่องและระบบตรรกะและสถิติ» แสดงความคิดเห็น Arnaud Latil อาจารย์ด้านกฎหมายเอกชนที่ Sorbonne University และสมาชิกของ Sorbonne Center for Artificial Intelligence (SCAI)
สภาเลือกคำจำกัดความที่จำกัดมากขึ้น
ขั้นตอนที่สอง: จากนั้นข้อความก็มาถึงสภา (ซึ่งเป็นตัวแทนของรัฐสมาชิก 27 ประเทศ) หลังจากพูดคุยกันมาก ฝ่ายหลังก็ได้เผยแพร่กข้อเสนอประนีประนอมเมื่อเดือนพฤศจิกายนปีที่แล้ว การเปลี่ยนแปลงที่สำคัญประการแรก: ภาคผนวกไม่มีอยู่แล้ว และคำจำกัดความทั้งหมดได้ถูกรวมเข้ากับเนื้อหาของกฎระเบียบอีกครั้ง ดังนั้นความเป็นไปได้ที่คณะกรรมาธิการจะปรับปรุงคำจำกัดความนี้อย่างรวดเร็วในกรณีที่เทคโนโลยีใหม่หายไป
การเปลี่ยนแปลงครั้งที่สอง: คำว่า "ซอฟต์แวร์" ถูกลบออกและแทนที่ด้วย "ระบบ" หลายคนกลัวว่าการรวมคำนี้จะทำให้ซอฟต์แวร์ทั้งหมดโดยไม่มีข้อยกเว้นจะต้องอยู่ภายใต้พระราชบัญญัติ IA โดยมีข้อกำหนดใหม่ที่จะขยายไปยังผลิตภัณฑ์ที่ไม่ต้องการกฎระเบียบที่เข้มงวดดังกล่าว
สุดท้ายนี้ถ้าเราไม่พบการอ้างอิงถึงเทคโนโลยีทั้งสามในภาคผนวกอีกต่อไป AI จะต้องโดดเด่น”ระบบซอฟต์แวร์และวิธีการเขียนโปรแกรมที่เรียบง่ายยิ่งขึ้น» เขียนสภา องค์ประกอบอื่นๆ ที่เพิ่มเติมเข้ามา: การจะมีคุณสมบัติเป็น AI จำเป็นจะต้อง “ระบบได้รับการออกแบบทำงานด้วยความเป็นอิสระในระดับหนึ่ง-ซึ่งเขาใช้-การเรียนรู้ของเครื่องและ/หรือตรรกะและแนวทางที่อิงความรู้--
ด้วยเงื่อนไขใหม่เหล่านี้ คำจำกัดความของ AI จึงเป็น “ถูกจำกัดมากขึ้น» กว่าอันแรก เขียน CEPS ของ European Think Tank ไว้ในรายงานประจำเดือนกุมภาพันธ์ 2566- มีการจำกัดการเรียนรู้ของเครื่องและวิธีการที่คล้ายกันกับ AI อย่างเคร่งครัดมากขึ้น การอ้างอิงถึงเอกราชบางประการ”สามารถจำกัดขอบเขตของคำจำกัดความให้แคบลงเหลือเพียงแบบจำลองที่สามารถตัดสินใจแบบปรับเปลี่ยนได้» เขากล่าวเสริม Think Tank ปกป้องคำจำกัดความกว้าง ๆ ของ AI ที่ไม่รวมถึงเทคนิค AI ใด ๆ เพราะ “อัลกอริธึมการเรียนรู้ของเครื่องซึ่งทำงานด้วยองค์ประกอบของความเป็นอิสระ» ไม่ใช่คนเดียวที่ “สร้างความเสี่ยงที่สำคัญต่อสิทธิและความปลอดภัยขั้นพื้นฐาน-
คำจำกัดความทั่วไปมากขึ้น - และกว้างขึ้นสำหรับรัฐสภา?
พวกเขาได้ยินจากรัฐสภายุโรปซึ่งในทางกลับกันได้ศึกษาข้อความและหารือเกี่ยวกับคำจำกัดความนี้อย่างดุเดือดหรือไม่?คำถามยังคงอยู่ เพราะแม้จะยังไม่มีการเผยแพร่ตำแหน่งอย่างเป็นทางการ แต่เรารู้ว่าเจ้าหน้าที่อนุรักษ์นิยมบางคนจากพรรคประชาชนยุโรป (EPP) ได้รณรงค์ให้ AI ถูกจำกัดอยู่การเรียนรู้ของเครื่อง- สมาชิกรัฐสภายุโรปจากด้านซ้ายและศูนย์กลางกำลังปกป้องคำจำกัดความที่กว้างขึ้น เพื่อไม่ให้แยก AI ออกไปทั้งหมด และตามคำบอกเล่าของเพื่อนร่วมงานของเราที่ยูแอคทีฟเส้นได้ย้ายในช่วงไม่กี่สัปดาห์ที่ผ่านมา
ในที่สุดรัฐสภาก็จะได้ตกลงกันเรื่องกคำจำกัดความทั่วไปมากขึ้นซึ่งใกล้เคียงกับ OECD หนึ่งเดือนก่อนหน้านี้เป็นของสถาบันมาตรฐานและเทคโนโลยีแห่งชาติของสหรัฐอเมริกาซึ่งอยู่บนโต๊ะ คำจำกัดความขององค์กรระหว่างประเทศมีข้อได้เปรียบในการได้รับการยอมรับจากชุมชนวิทยาศาสตร์แล้ว และรับประกันความชอบธรรม เจ้าหน้าที่จะต้องอธิบาย คราวนี้มารายงานตัว.ยูแอคทีฟ,ในวันที่ 8 มีนาคม AI จะถูกกำหนดให้เป็น" และระบบอัตโนมัติซึ่งสำหรับชุดวัตถุประสงค์ที่กำหนดโดยมนุษย์ จะสามารถคาดการณ์ ให้คำแนะนำ หรือตัดสินใจได้มีอิทธิพลต่อสภาพแวดล้อมจริงหรือเสมือน--
-ในทางกฎหมายเรามักจะพูดถึงหลักการของความเป็นกลางทางเทคโนโลยีซึ่งในความเป็นจริงหมายความว่าการอ้างอิงถึงเทคนิคหรือเทคโนโลยีควรทำให้น้อยที่สุดเท่าที่จะเป็นไปได้ในกฎระเบียบ» Arnaud Latil อธิบาย -ในเวอร์ชัน OECD มีหลักการของความเป็นกลางทางเทคโนโลยีอยู่ และเราเห็นความแตกต่างได้ชัดเจนเมื่อเทียบกับคำจำกัดความแรกของเดือนเมษายน 2564 ที่เน้นอย่างมากโดยอ้างอิงถึงเทคโนโลยี AI ทั้ง 3 ตัว ในเวอร์ชันเดือนพฤศจิกายนของสภา มีความใกล้เคียงกับความเป็นกลางทางเทคโนโลยี แต่ก็ไม่ได้เป็นเช่นนั้น คำนิยามยังคงอยู่ตรงกลางฟอร์ด และหากเป็นของ OECD ที่ได้รับเลือกในข้อความสุดท้ายในที่สุด เราก็ไม่มีการอ้างอิงถึงเทคโนโลยีอีกต่อไป» ศาสตราจารย์กล่าวต่อ
ปีศาจแห่งการกำกับดูแลที่มากเกินไป
นอกจากคำถามเรื่องความเป็นกลางแล้ว เราพบว่าคำจำกัดความของ OECD ซึ่งค่อนข้างกว้างนั้นยังกว้างกว่าคำจำกัดความของสภาด้วย เราไม่พบความแตกต่างระหว่างระบบที่ซับซ้อนและเรียบง่าย หรือการอ้างถึงความเป็นอิสระหรือเทคนิคการเรียนรู้อีกต่อไป คงต้องติดตามกันต่อไปว่าวิสัยทัศน์ของ AI ใดจะเหนือกว่าในข้อความฉบับสุดท้ายมีอะไรเป็นเดิมพัน?หากคำจำกัดความแคบเกินไป ความเสี่ยงก็คือต้องดูกฎข้อบังคับการหลบหนีของ AI ทั้งหมด- นักออกแบบ AI ก็สามารถเลือกวิธีการที่ง่ายกว่านี้โดยสมัครใจเพื่อหลีกเลี่ยงการอยู่ภายใต้กฎระเบียบนี้
หากกว้างเกินไป อาจส่งผลให้มีการควบคุมภาคส่วนนี้มากเกินไป และทำให้ต้นทุนธุรกิจทวีคูณกลัวบริษัทเทคโนโลยีบางแห่ง เมื่อ GDPR ถูกนำมาใช้ Gafam ก็แสดงความกลัวเช่นเดียวกัน พวกเขายังขู่ว่าสหภาพยุโรปจะออกจากโซนเมื่อข้อความนี้มีผลบังคับใช้ กฎเหล่านี้คงจะเข้มงวดเกินไปและอาจทำลายการค้าอิเล็กทรอนิกส์ของยุโรปได้ แต่สิ่งนี้ไม่ได้เกิดขึ้น: GDPR ได้สร้างอินเทอร์เฟซทางกฎหมายเดียวสำหรับตลาดดิจิทัลของสหภาพยุโรปแทน
อ่านเพิ่มเติม: เหตุใดการถ่ายโอนข้อมูลส่วนบุคคลของคุณไปยังสหรัฐอเมริกาจึงเป็นเรื่องที่น่าปวดหัวอย่างไม่น่าเชื่อ
และด้วยพระราชบัญญัติ AI ความเข้าใจผิดแบบเดียวกันก็เกิดขึ้นอีก: ปีศาจแห่งการควบคุมที่มากเกินไปซึ่งคำจำกัดความกว้าง ๆ ของ AI จะบ่งบอกได้ถูกหยิบยกขึ้นมาอีกครั้ง แต่ด้วยแนวทางที่อิงตามความเสี่ยงข้อความนี้กำหนดข้อกำหนดด้านกฎระเบียบที่ครอบคลุมสำหรับบางส่วนเท่านั้น: ระบบ AI ที่สร้างความเสี่ยงสูงต่อสุขภาพ ความปลอดภัย และสิทธิขั้นพื้นฐาน ที่เหลือ เช่นเดียวกับ AI ในวิดีโอเกม เครื่องดูดฝุ่น และแอปบนสมาร์ทโฟนของเรา ส่วนใหญ่จะเกี่ยวกับ “ความขยันเนื่องจาก» Joanna Bryson ศาสตราจารย์ด้านจริยธรรมและเทคโนโลยีที่ Hertie School อธิบาย ท่ามกลางเพื่อนร่วมงานของเราที่แบบมีสาย-
อันตรายจากคำจำกัดความที่แคบเกินไป
ข้อความนี้ไม่ได้หมายความถึงภาระด้านกฎระเบียบใหม่สำหรับกรณีหลัง ซึ่งแสดงถึงกรณีส่วนใหญ่ ก็คงต้องการเพียงเท่านั้นภาระผูกพันด้านความโปร่งใสขั้นพื้นฐาน- ตัวอย่างเช่น แชทบอทควรระบุว่าเป็น AI และไม่ใช่ปฏิสัมพันธ์กับมนุษย์จริงๆ
ในทางกลับกัน หากเราพยายามแยก AI ที่ซับซ้อนออกจาก AI ง่าย ๆ ซึ่งอาจนำไปสู่การฟ้องร้องอย่างไม่สิ้นสุด หรือแยก AI บางสาขาออกเพื่อจำกัดพระราชบัญญัติ AI เฉพาะการเรียนรู้เชิงลึกเท่านั้นการรับประกันทั้งหมดที่กำหนดไว้ในข้อความจะไม่นำไปใช้กับสิ่งที่ได้รับการยกเว้น ทางออกจึงเป็นมาตรการป้องกันที่รัฐบาลและบริษัทต้องเคารพ ซึ่งควรจะป้องกันความเสี่ยงของการสอดแนมโดยทั่วไป
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-