นี่คือแก่นของความขัดแย้ง: จะควบคุม AI เชิงสร้างสรรค์เช่น ChatGPT ได้อย่างไร แม้ว่าการเจรจาจะสิ้นสุดลง แต่ก็ยังไม่มีความเห็นพ้องต้องกันว่าควรควบคุมแบบจำลองพื้นฐานอย่างไร สำหรับฝรั่งเศส ซึ่งมีรัฐสมาชิกอีกสองประเทศเข้าร่วม หลักจรรยาบรรณที่เรียบง่ายก็น่าจะเพียงพอแล้ว จุดยืนที่ห่างไกลจากเอกฉันท์โดยเฉพาะในหมู่ผู้ถือสิทธิ์และผู้สร้าง เมื่อเผชิญกับทางตันนี้ คณะกรรมาธิการยุโรปได้เสนอเอกสารใหม่ซึ่งรวมหลักจรรยาบรรณและภาระผูกพันในแง่ของลิขสิทธิ์
หมายเหตุบรรณาธิการ: บทความนี้ซึ่งเผยแพร่เมื่อวันจันทร์ที่ 20 พฤศจิกายน ได้รับการอัปเดตในวันอังคารที่ 21 พฤศจิกายนนี้ เพื่อรวมข้อเสนอใหม่จากคณะกรรมาธิการยุโรป
เหลือเวลาอีกเพียงสองสัปดาห์ก่อนวันที่ 6 ธันวาคม ซึ่งเป็นวันไตรภาคถัดไปของ-พระราชบัญญัติ AI» กฎระเบียบของยุโรปด้านปัญญาประดิษฐ์อย่างไรก็ตาม ยังมีประเด็นที่ไม่เห็นด้วยระหว่าง 27 ประเทศสมาชิก รัฐสภายุโรป และคณะกรรมาธิการยุโรป เช่น คำถามเรื่องความโปร่งใส และวิธีการควบคุม generative AI เช่นChatGPTตัวแทนการสนทนาที่พัฒนาโดย OpenAI และในช่วงไม่กี่วันที่ผ่านมา ข่าวข้อตกลงระหว่างสามรัฐสมาชิก ซึ่งรวมถึงฝรั่งเศส อาจทำให้สมาชิกสภานิติบัญญัติร่วมของยุโรปทั้งสามคนจะเห็นด้วยกับข้อความก่อนสิ้นปีนี้น้อยลง เพื่อยุติปัญหาดังกล่าว คณะกรรมาธิการยุโรปได้เสนอข้อเสนอใหม่ รายงานบริบทวันอังคารที่ 21 พฤศจิกายนนี้
ข้อตกลงฝรั่งเศส-อิตาลี-เยอรมนีเกี่ยวกับแบบจำลองฐานราก?
วันเสาร์ที่ 18 พฤศจิกายนสำนักข่าวรอยเตอร์เปิดเผยว่าฝรั่งเศส อิตาลี และเยอรมนีพบจุดยืนร่วมกันในแบบจำลองฐานราก ตามเอกสารที่ไม่เป็นทางการซึ่งเพื่อนร่วมงานของเราสามารถเข้าถึงได้ อย่างไรก็ตาม จุดยืนร่วมกันนี้ยังไม่ได้รับการยืนยันจากรัฐสมาชิกทั้งสามนี้ แต่ตามรายงานของสำนักข่าว ทั้งสามประเทศจะปกป้องแนวคิดในการควบคุมตนเองสำหรับสิ่งที่เรียกว่าแบบจำลองปัญญาประดิษฐ์ขั้นพื้นฐาน มันจะเป็น “การบังคับควบคุมตนเองผ่านจรรยาบรรณ» แต่ไม่ได้รับการลงโทษอย่างน้อยก็ในทันที
กฎระเบียบด้าน AI ในอนาคต”ควบคุมการประยุกต์ใช้ AI ไม่ใช่ตัวเทคโนโลยีเอง” เราสามารถอ่านเอกสารนี้ได้อย่างแน่นอนตามที่เราอธิบายให้คุณฟังข้อความที่เสนอโดยคณะกรรมาธิการยุโรปเมื่อเดือนเมษายน พ.ศ. 2564 ไม่ได้มีจุดมุ่งหมายเพื่อควบคุมเทคโนโลยีดังกล่าว เขากำหนดปิรามิดความเสี่ยงตามการใช้เทคโนโลยีนี้- หลักการ: ยิ่งการใช้ระบบ AI มีความเสี่ยงมากขึ้น (เช่น ในแง่ของสิทธิมนุษยชน เช่น ระบบจดจำใบหน้าที่จะใช้เพื่อวัตถุประสงค์ในการควบคุมทางสังคม) และยิ่งซัพพลายเออร์ของระบบนี้ต้องเคารพความโปร่งใสมากขึ้นเท่านั้น และภาระหน้าที่ในการกำกับดูแล ห้ามใช้โดยสิ้นเชิง เดิมทีพระราชบัญญัติ AI จึงกำหนดภาระผูกพันที่แท้จริงเฉพาะกับการใช้งานที่มีความเสี่ยงมากที่สุดเท่านั้นเช่นการศึกษา ทรัพยากรบุคคล หรือบริการภาครัฐและเอกชนที่จำเป็น
แต่หลังจากมีคลื่นChatGPTเปิดตัวในเดือนพฤศจิกายน 2022 รัฐสภายุโรปตัดสินใจแนะนำบทบัญญัติใหม่โดยไม่ตั้งคำถามถึงหลักการพื้นฐานนี้ MEPs ที่เพิ่มเข้ามาอย่างโดดเด่นพันธกรณีด้านความโปร่งใสใหม่ซึ่งจะนำไปใช้กับ “โมเดลรากฐาน- นับตั้งแต่วินาทีที่เราต้องเผชิญกับ “แบบจำลองฐานราก »ไม่ว่าความเสี่ยงจะเป็นอย่างไร จะต้องเคารพกฎจำนวนหนึ่ง- คณะมนตรีซึ่งเป็นตัวแทนของประเทศสมาชิกได้เลือกที่จะคงแนวทางที่อิงตามความเสี่ยงไว้สำหรับ “AI วัตถุประสงค์ทั่วไป-
คำถามทั้งหมดก็คือว่าบทบัญญัติใหม่ซึ่งเพิ่มโดยสมาชิกรัฐสภายุโรปจะปฏิบัติตามหรือไม่รอดจากการเจรจาและในรูปแบบใด:สิ่งเหล่านี้จะเป็นภาระผูกพันที่แท้จริงหรือเป็นจรรยาบรรณง่ายๆ ที่ต้องเคารพ-
เมื่อไม่กี่วันก่อนหน้านั้นคือ Arthur Mensch ซึ่งเป็น CEO ของสตาร์ทอัพชาวฝรั่งเศสมิสทรัล เอไอซึ่งเข้ารับตำแหน่งในทวีตยาวๆเอ็กซ์- เขาอธิบายว่าเขารู้สึกเสียใจที่ข้อความได้ย้ายออกไปจากแนวทางเริ่มต้นโดยอิงตามการใช้งาน เพื่อกำหนดภาระผูกพันกับแบบจำลองพื้นฐานด้วยตนเอง เนื่องจากเราจะควบคุมโมเดลที่ไม่ได้ใช้ได้อย่างไร เขาจึงตั้งคำถาม ตามข้อผูกพันใหม่จะสนับสนุนผู้เล่นที่มีอยู่เช่น OpenAI หรือ Google ซึ่งไม่ใช่ชาวยุโรป ไปสู่ความเสียหายต่อผู้เล่นใหม่ที่พยายามจะเกิดขึ้นเช่นบริษัทของเขา
ฝรั่งเศส เยอรมนี และอิตาลีคงจะตกลงในส่วนของตนว่าไม่มีภาระผูกพันสำหรับแบบจำลองพื้นฐานเหล่านี้ โดยเลือกใช้การกำกับดูแลตนเองผ่านจรรยาบรรณ ตามยูแอคทีฟซึ่งสามารถเข้าถึงเอกสารทางการอันโด่งดังนี้ ทั้งสามประเทศก็จะร้องขอเฉพาะการใช้งานเฉพาะ (และมีความเสี่ยง) ของ “ระบบ AI วัตถุประสงค์ทั่วไป” เท่านั้นที่ได้รับการควบคุมและไม่ใช่โมเดลพื้นฐานด้วย
เพื่อสร้างความแตกต่างระหว่างสิ่งที่จะมีความเสี่ยงและสิ่งที่ไม่น่าจะเป็น ประเทศสมาชิกเหล่านี้จะเสนอให้ผู้พัฒนาแบบจำลองพื้นฐานเผยแพร่เอกสารทางเทคนิค เอกสารทางเทคนิค- อันหลังนี้”จะรวมข้อมูลที่เกี่ยวข้องเพื่อทำความเข้าใจวิธีการทำงานของโมเดล ความสามารถ และข้อจำกัด และจะขึ้นอยู่กับแนวปฏิบัติที่ดีที่สุดภายในชุมชนนักพัฒนา» ตามเอกสารที่เพื่อนร่วมงานของเราอ้างถึง
-หน่วยงานกำกับดูแลของ AI สามารถมีส่วนร่วมในการพัฒนาแนวปฏิบัติและตรวจสอบการประยุกต์ใช้แผ่นงานได้» เทคนิคเพิ่มเติม ในเบื้องต้น ไม่ควรกำหนดมาตรการคว่ำบาตร หากบริษัทไม่เคารพหลักจรรยาบรรณนี้ แต่ในกรณีที่มีการละเมิดซ้ำๆ อาจมีการใช้ระบบการลงโทษ
ผู้สร้างยืนหยัดต่อต้านจุดยืนของฝรั่งเศส
หากได้รับการยืนยันอย่างเป็นทางการ ตำแหน่งนี้หมายความว่าบทความสองบทความที่สมาคมการป้องกันศิลปินและผู้สร้างกำลังรณรงค์อยู่จะถูกข้ามไป กล่าวคือ บทความ 28B และบทความ 52 บทความแรกจะบังคับให้นักพัฒนา AI ต้องโปร่งใสเกี่ยวกับข้อมูลการฝึกอบรมของระบบ เนื่องจากส่วนหลังจะต้องเผยแพร่สรุปรายละเอียดไม่มากก็น้อยของข้อมูลที่ได้รับการป้องกันซึ่งใช้สำหรับการฝึกอบรม ในส่วนของมาตรา 52 กำหนดให้เนื้อหาทั้งหมดที่สร้างโดย AI ต้องติดป้ายกำกับเช่นนี้
อ่านเพิ่มเติม:พระราชบัญญัติ AI: โลกแห่งวัฒนธรรมขอให้ยุโรปกำหนดความโปร่งใสมากขึ้นเกี่ยวกับ generative AI
วันศุกร์ที่ 17 พฤศจิกายน ภาควัฒนธรรมยังคงเผยแพร่กแถลงการณ์โดยขอให้รัฐบาลฝรั่งเศสตรวจสอบสำเนาแล้วไม่ใช่”ไม่เสียสละภาระผูกพันด้านความโปร่งใสโดยปราศจากสิ่งใดที่ไม่สามารถสร้างความมั่นคงได้- -มีเพียงหลักการความโปร่งใสด้านข้อมูลการฝึกอบรมและเนื้อหาที่สร้างขึ้นที่จับต้องไม่ได้เท่านั้นที่สามารถรับประกันแก่พลเมืองและผู้สร้างได้ว่าสิทธิของตนได้รับการเคารพ», เขียนผู้เขียนข้อความนี้ ลงนามโดยสหภาพแรงงานและองค์กรต่างๆ 80 แห่ง รวมถึงหน่วยงานในสื่อ สิ่งพิมพ์ ภาพยนตร์ ดนตรี และภาพถ่าย
หากไม่มีความโปร่งใส และดังนั้นจึงมีภาระผูกพันในการเผยแพร่รายการเนื้อหาที่ใช้สำหรับการฝึกอบรม AI และได้รับการคุ้มครองโดยลิขสิทธิ์ ที่จริงแล้วคงเป็นเรื่องยากหากผู้แต่งและผู้ถือสิทธิ์จะได้รับค่าตอบแทนจากการใช้งานของพวกเขา แทบจะเป็นไปไม่ได้เลยที่จะทราบว่างานเฉพาะนั้นถูกนำมาใช้ในการฝึกอบรมระบบ AI ใดระบบหนึ่งจริงหรือไม่ ล่าสุดวันที่ 9 พฤศจิกายน รายงานบริบทฝรั่งเศสและเยอรมนีวีโต้พันธกรณีด้านความโปร่งใสนี้ ดูเหมือนว่าข่าวประชาสัมพันธ์จากโลกแห่งวัฒนธรรมไม่ได้เปลี่ยนจุดยืนของฝรั่งเศสเลยแม้แต่น้อย ในมุมมองของเอกสารที่เพื่อนร่วมงานของเราที่ Reuters รายงาน
อ่านเพิ่มเติม:ลิขสิทธิ์: เราอยู่จุดไหนในการต่อสู้ระหว่างผู้สร้าง ศิลปิน และนักพัฒนา AI
แต่มันทำให้คณะกรรมาธิการยุโรปตอบโต้ ซึ่งเสนอการประนีประนอมครั้งใหม่ อธิบายบริบท วันอังคารที่ 21 พฤศจิกายนนี้ ประการหนึ่ง โมเดลสำหรับวัตถุประสงค์ทั่วไปที่นำเสนอความเสี่ยงเชิงระบบควรเป็นไปตามหลักจรรยาบรรณ ในทางกลับกัน โมเดลพื้นฐานควรเคารพภาระผูกพันที่แท้จริง รวมถึงบางส่วนที่เกี่ยวข้องกับลิขสิทธิ์ด้วยซัพพลายเออร์ของโมเดลเหล่านี้ควรเผยแพร่ "สรุปที่มีรายละเอียดเพียงพอ" ของเนื้อหาที่ใช้ในการฝึกอบรมระบบของตน- อีกจุดที่ตอบสนองต่อความต้องการของภาควัฒนธรรม: บริษัทเหล่านี้จะต้อง pใช้มาตรการเพื่อเคารพการเลือกไม่รับความจริงที่ว่าผู้ถือสิทธิ์ปฏิเสธที่จะอนุญาตให้ใช้ผลงานของตนเพื่อวัตถุประสงค์ในการฝึกอบรม คำสั่งด้านลิขสิทธิ์ปี 2019 ระบุไว้อย่างแน่นอน ยกเว้น “การทำเหมืองข้อมูลและข้อความ” ว่าระบบ AI มีสิทธิ์รวบรวมข้อความหรือรูปภาพเพื่อวัตถุประสงค์ในการฝึกอบรม รวมถึงข้อความหรือรูปภาพที่ได้รับการคุ้มครองโดยลิขสิทธิ์เพื่อวัตถุประสงค์ในการวิจัย
อย่างไรก็ตาม ข้อกำหนดนี้ซึ่งคิดและนำมาใช้ก่อนการเปิดตัว ChatGPT ไม่ได้อธิบายว่าการยกเลิกดังกล่าวสามารถนำไปใช้ได้อย่างไร ซึ่งข้อกำหนดนี้ที่คณะกรรมาธิการเสนอจะกรอก หากนำมาใช้ สุดท้ายนี้ คำขออีกประการหนึ่งจากภาคผู้สร้างซึ่งข้อเท็จจริงในการระบุอย่างชัดเจนว่าเป็นเนื้อหาที่สร้างโดย AI สำหรับข้อความ โค้ด รูปภาพ หรือวิดีโอใด ๆ ที่สร้างโดย AI ก็เป็นส่วนหนึ่งของข้อเสนอของผู้บริหารชาวยุโรปเช่นกัน
แนวคิดเรื่องจรรยาบรรณ: ความคิดที่ไม่ดี?
แต่สำหรับบางคน เหนือสิ่งอื่นใดคือแนวคิดเกี่ยวกับหลักจรรยาบรรณ ดังนั้น ข้อเท็จจริงของการวางมาตรฐานที่ไม่บังคับ ซึ่งอาจก่อให้เกิดปัญหาได้ ตามยูแอคทีฟซึ่งอ้างคำพูดของเจ้าหน้าที่รัฐสภายุโรปที่ไม่ใช่กระดาษโดยเสนอหลักจรรยาบรรณย่อมเป็นเรื่องจริง”การประกาศสงคราม» ซึ่งขัดแย้งกับเวอร์ชันที่ MEP นำมาใช้
Olivier Iteanu ทนายความที่ Paris Bar และผู้เชี่ยวชาญด้านกฎหมายดิจิทัล เล่าย้อนกลับไปในโพสต์ในบล็อกตั้งแต่วันที่ 19 พฤศจิกายนหากไม่มีกฎหมายบังคับใช้กับผู้ให้บริการ generative AI เช่น OpenAI เงื่อนไขการใช้งานทั่วไป (CGU) จะมีผลบังคับใช้ เมื่อไรหากคุณใช้ ChatGPT ข้อกำหนดและเงื่อนไขเหล่านี้มีผลบังคับใช้ตามกฎหมาย เมื่อกี้พวกเขาว่าไงนะ? OpenAI นั้นจะไม่รับผิดชอบไม่ว่าจะใช้แชทบอทก็ตาม -หากตำแหน่งนี้ไม่สามารถยืนหยัดในศาลได้ ผู้ใช้แต่ละรายจะต้องใช้ความกล้ากี่ปี เงิน และเวลาจึงจะได้รับการยอมรับ» ถามผู้เชี่ยวชาญที่ร้องขอให้มีการจัดตั้งระเบียบความสงบเรียบร้อยของประชาชน- โมเดลรองพื้นหรือ AI เอนกประสงค์จะถูกกินอย่างไร? พวกเขาจะต้องเคารพภาระผูกพันหรือจรรยาบรรณง่ายๆ หรือไม่? การอภิปรายทางเทคนิคคาดว่าจะดำเนินการต่อในสัปดาห์นี้
🔴 เพื่อไม่พลาดข่าวสาร 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : สำนักข่าวรอยเตอร์