เมื่อวันจันทร์ที่ 30 ตุลาคมนี้ กลุ่ม G7 เห็นพ้องกับหลักการชี้นำของหลักจรรยาบรรณด้านปัญญาประดิษฐ์ ขณะที่ประธานาธิบดีโจ ไบเดน ของอเมริกาได้เผยแพร่กฤษฎีกาที่มุ่งควบคุมภาคส่วนนี้ นี่เป็นความคิดริเริ่มสองประการล่าสุดที่มีจุดประสงค์เพื่อควบคุมระบบ AI แบบกำเนิด องค์ประกอบทั้งสองนี้ถูกเพิ่มเข้าไปในรายการโครงการซึ่งมีการเติบโตอย่างต่อเนื่องเป็นเวลาหลายเดือน
การแข่งขันเพื่อควบคุมปัญญาประดิษฐ์ (AI) ยังคงดำเนินไปอย่างเต็มที่ หลังจากที่“สนธิสัญญาปัญญาประดิษฐ์”ระหว่างสหภาพยุโรปและบริษัท AIหลังจากจรรยาบรรณทั่วไปในสหรัฐอเมริกาและยุโรปเมื่อเดือนมิถุนายนปีที่แล้วโครงการริเริ่มใหม่ๆ เพื่อพยายามควบคุม AI เกิดขึ้นในวันจันทร์ที่ 30 ตุลาคมนี้ G7 ประกาศว่าตนได้ตกลงตามหลักการชี้นำของตนแล้วจรรยาบรรณที่เกี่ยวข้องกับ AI ในขณะที่กคำสั่งผู้บริหารทำเนียบขาวได้ลงนามในการบังคับให้บริษัทอเมริกันในภาคส่วนนี้ต้องปฏิบัติตามพันธกรณีมากขึ้น
เมื่อไม่กี่วันก่อนหน้านี้ กเอไอ ไอพีซีซีและกคณะที่ปรึกษาของสหประชาชาติถูกกล่าวถึง ที่กฎระเบียบของยุโรปเกี่ยวกับ AIยังอยู่ในขั้นตอนการรับเลี้ยงบุตรบุญธรรม มองย้อนกลับไปที่ความคลั่งไคล้ด้านกฎระเบียบในภาคส่วนนี้ในช่วงไม่กี่สัปดาห์ที่ผ่านมา ในระหว่างนั้นระบบเอไอเช่น ChatGPT กำลังได้รับอำนาจและความนิยม... ในขณะที่ยังคงมีการควบคุมที่ไม่ดีในตอนนี้
หลักจรรยาบรรณ G7 ที่ไม่มีผลผูกพัน
เช้าวันจันทร์ที่ 30 ตุลาคมนี้ กลุ่ม G7 เห็นชอบแนวปฏิบัติของจรรยาบรรณตามคำสั่งของประธานาธิบดีญี่ปุ่น- เป็นกฎที่ไม่มีข้อผูกมัดสำหรับนักพัฒนา AI ซึ่งได้รับการอนุมัติจากผู้นำของเจ็ดประเทศเหล่านี้ (ฝรั่งเศส เยอรมนี แคนาดา สหรัฐอเมริกา อิตาลี ญี่ปุ่น และสหราชอาณาจักร) รวมถึงสหภาพยุโรป Margrethe Vestager อดีตกรรมาธิการยุโรปที่รับผิดชอบด้านการแข่งขันได้หยิบยกแนวคิดเกี่ยวกับรหัสสมัครใจนี้เมื่อเดือนพฤษภาคมปีที่แล้ว ข้อความนี้ซึ่งริเริ่มโดยเป็นส่วนหนึ่งของกระบวนการฮิโรชิมาเกี่ยวกับ AI สามารถนำไปใช้ได้โดยบริษัทและสถาบันในภาคส่วนนี้ ในขณะที่รอกฎหมาย (เช่นพระราชบัญญัติเอไอ) ลงคะแนนเสียงตามแบบฟอร์มอันสมควร
บริษัทที่ลงนามรหัส 11 จุดนี้จะต้องกระทำตามความสมัครใจถึงมาตรการจำนวนหนึ่ง พวกเขาจะต้องระบุความเสี่ยงที่อาจเกิดขึ้นจากการใช้ระบบ AI พวกเขาจะถูกบังคับให้รายงานความสามารถและข้อจำกัดของระบบต่อสาธารณะ พวกเขาจะต้องสร้างโครงสร้างการกำกับดูแลของ AI ลงทุนในการควบคุมความปลอดภัย และรับรองการปกป้องความเป็นส่วนตัว
ประเด็นแนะนำอื่นๆ: ระบบการแท็กควรอนุญาตให้ผู้ใช้สามารถระบุเนื้อหาที่สร้างโดย AI ผู้สังเกตการณ์อิสระยังจะรับผิดชอบในการติดตามทุกขั้นตอนของการพัฒนาและการตลาดของ AI ในแถลงการณ์ของกลุ่ม G7โดยกำหนดให้ข้อเสนอแนะเหล่านี้ต้องได้รับการตรวจสอบซ้ำเป็นระยะๆ หากจำเป็น เพื่อปรับให้เข้ากับ “วิวัฒนาการอย่างรวดเร็วของเทคโนโลยี-
ก็ยังคงอยู่อย่างนั้นนี่เป็นข้อความที่ไม่มีผลผูกพันซึ่งต้องอาศัยความปรารถนาดีของบริษัทที่พัฒนา AI ประธานคณะกรรมาธิการยุโรป Ursula von der Leyen ยินดีกับข่าวนี้ในบัญชี X ของเธอและในแถลงการณ์วันจันทร์นี้ เธอ "เชิญชวนนักพัฒนา AI ให้ลงนามและนำหลักจรรยาบรรณนี้ไปใช้โดยเร็วที่สุด»…ระหว่างรอ.พระราชบัญญัติ AI กฎระเบียบของยุโรปเกี่ยวกับ AIนำไปประยุกต์ใช้
ประโยชน์ที่เป็นไปได้ของ AI นั้นมหาศาล@EU_คณะกรรมาธิการเป็นผู้นำที่มีพระราชบัญญัติ 🇪USA AI เพื่อจัดการความเสี่ยงพร้อมทั้งเก็บเกี่ยวผลประโยชน์
ตอนนี้ฉันมีความยินดีที่จะต้อนรับหลักการชี้แนะสากลของ G7 และหลักปฏิบัติโดยสมัครใจสำหรับ AI ที่น่าเชื่อถือhttps://t.co/mxM5PfkuEl
— เออร์ซูลา ฟอน เดอร์ เลเยน (@vonderleyen)30 ตุลาคม 2023
คำสั่งผู้บริหารทำเนียบขาวเรื่อง AI
อีกข้อความหนึ่งที่ลงนามเมื่อวันจันทร์นี้: กฤษฎีกาจากรัฐบาลของโจ ไบเดน ซึ่งมีเป้าหมายเพื่อควบคุมเช่นกัน”ภัยคุกคามจากปัญญาประดิษฐ์» ตั้งแต่ความเป็นส่วนตัวไปจนถึงความเสี่ยงในการจ้างงานและความมั่นคงของชาติ ตามที่ข่าวประชาสัมพันธ์ทำเนียบขาวที่เผยแพร่เมื่อวันจันทร์นี้พระราชกฤษฎีกามีจุดมุ่งหมายเพื่อ “ช่วยให้เกิดการพัฒนา AI ที่ปลอดภัย มั่นคง และเชื่อถือได้- มันขึ้นอยู่กับ “ภาระผูกพันโดยสมัครใจจาก 15 บริษัทขนาดใหญ่»…ไปไกลกว่านี้มาก
ก่อนอื่นเลย,นักพัฒนาระบบ AI ที่ทรงพลังที่สุดจะต้องแบ่งปันผลการทดสอบความปลอดภัยของตนและข้อมูลสำคัญอื่นๆ กับรัฐบาลสหรัฐฯ ตามการเปิดเผย
นี่จะเป็นกรณีพิเศษสำหรับ “ระบบ AI อยู่ระหว่างการพัฒนาซึ่งก่อให้เกิดความเสี่ยงร้ายแรงต่อสุขภาพและความปลอดภัย (...) เศรษฐกิจ หรือความมั่นคงของชาติ- การสื่อสารนี้จะต้องเกิดขึ้นก่อนที่เครื่องมือเหล่านี้จะเผยแพร่สู่สาธารณะ- สิ่งนี้ไม่ควรทำให้ OpenAI, Google หรือแม้แต่ Anthropic พอใจ เนื่องจากบริษัทเหล่านี้อยู่ในภาคส่วนนี้มาจนถึงตอนนั้นถูกจำกัดเพียงเล็กน้อยเพื่อความโปร่งใสน้อยที่สุด- จนถึงขณะนี้บริษัทเหล่านี้สามารถทำให้ระบบของตนพร้อมใช้งานต่อสาธารณะ โดยไม่ต้องเปิดเผยผลการทดสอบกับฝ่ายบริหารของสหรัฐอเมริกา อย่างไรก็ตาม ข่าวประชาสัมพันธ์ไม่ได้ระบุว่าสิ่งหลังสามารถป้องกันการวางตลาดเครื่องมือ AI ในตลาดอเมริกาได้หรือไม่ เนื่องจากผลการทดสอบความปลอดภัยซึ่งจะถูกตัดสิน”ไม่เพียงพอ-
พระราชกฤษฎีกาดังกล่าวยังรวมถึงองค์ประกอบที่มีข้อจำกัดน้อยกว่าเช่นที่เกี่ยวข้องกับความปลอดภัยทางไซเบอร์ ข้อความนี้มีจุดมุ่งหมายเพื่อ “ปกป้องชาวอเมริกันจากการฉ้อโกงและการหลอกลวง"โดยเฉพาะการอำนวยความสะดวกในการตรวจจับเนื้อหาที่สร้างโดย AI เช่นเขาทำนายว่ากระทรวงพาณิชย์ของอเมริกา”พัฒนาคำแนะนำสำหรับ (…) การใช้ลายน้ำเพื่อติดป้ายกำกับเนื้อหาที่สร้างโดย AI อย่างชัดเจน หน่วยงานรัฐบาลกลางจะใช้เครื่องมือเหล่านี้เพื่อให้ชาวอเมริกันทราบว่าการสื่อสารที่พวกเขาได้รับจากรัฐบาลของตนนั้นมีความถูกต้อง-
ผู้เขียนข่าวประชาสัมพันธ์ยังกล่าวถึงมาตรการต่างๆ เช่น การจัดทำรายงานเกี่ยวกับผลกระทบที่อาจเกิดขึ้นของ AI ในตลาดแรงงาน การศึกษา”ตัวเลือกเพื่อเสริมสร้างการสนับสนุนสำหรับคนงานที่เผชิญกับการหยุดชะงักของตลาดแรงงาน รวมถึงจาก AI» ก็ถูกกล่าวถึงเช่นกัน สุดท้ายนี้ ข้อความนี้มีจุดมุ่งหมายเพื่ออำนวยความสะดวกในการจ้างงานแรงงานต่างชาติที่มีคุณสมบัติสูงซึ่งบริษัทต่างๆ ในภาคส่วนนี้กำลังแข่งขันกันในสหรัฐอเมริกา โดยการปรับปรุงหลักเกณฑ์ในการออกวีซ่าให้ทันสมัย ซึ่งพระราชกฤษฎีกานี้ครั้งหนึ่งรวมถึงบทบัญญัติบังคับและบังคับใช้จะทำให้สามารถควบคุมภาคส่วนได้ในขณะที่รอกฎหมายในอนาคตจากรัฐสภาอเมริกัน – สมาชิกรัฐสภาอเมริกันยังคงแตกแยกในเรื่องนี้อยู่ในขณะนี้
IPCC ของ AI
สหราชอาณาจักรยังได้เข้าสู่รอบความพยายามในการควบคุมภาคส่วนนี้ด้วย ในระหว่างการประชุม AI ของประเทศ ซึ่งจะจัดขึ้นในวันที่ 1 และ 2 พฤศจิกายน 2019 เพื่อประกาศ IPCC สำหรับ AI นี่คือสิ่งที่ Rishi Sunak นายกรัฐมนตรีอังกฤษกล่าวถึงเมื่อวันที่ 26 ตุลาคมที่ผ่านมา- แนวคิดของกลุ่มผู้เชี่ยวชาญระดับโลกที่รับผิดชอบในการเผยแพร่รายงานสถานะความรู้ที่เกี่ยวข้องกับ AI ตามแบบจำลอง IPCC สำหรับสภาพภูมิอากาศ ได้รับการเสนอชื่อโดยประธานคณะกรรมาธิการยุโรป Ursula von der เลเยน วันที่ 13 กันยายน
UN ตั้งคณะที่ปรึกษาด้าน AI
โปรดทราบว่าสหประชาชาติยังได้ตัดสินใจจัดตั้งหน่วยงานที่ปรึกษาด้าน AI ซึ่งจะ “ศึกษาความเสี่ยงและโอกาสที่นำเสนอโดยปัญญาประดิษฐ์- โดยจะประกอบด้วยผู้เชี่ยวชาญ 39 คนจากบริษัทในภาคส่วน นักวิชาการ รวมถึงสมาชิกภาครัฐและฝ่ายบริหาร ดังที่เห็นได้ในรายการที่เผยแพร่บนเว็บไซต์ของสหประชาชาติเมื่อสัปดาห์ที่แล้ว หนึ่งในนั้นคือ Rahaf Harfoush สมาชิกสภาดิจิทัลแห่งชาติที่ถูกพบเห็นบริบทวันจันทร์ที่ 30 ตุลาคมนี้
“ฟอรั่มโมเดลชายแดน” ของบริษัท AI
สุดท้ายนี้ เราต้องเน้นย้ำความคิดริเริ่มของบริษัทในภาคส่วนนี้ ซึ่งส่วนใหญ่ตั้งอยู่ในสหรัฐอเมริกา ซึ่งไม่ได้ใช้งานอีกต่อไป เรารู้ว่าพวกเขาได้พบกับสมาชิกของรัฐบาลไบเดนหลายครั้ง เช่น คณะกรรมาธิการยุโรป บางคนต้องการมีอิทธิพลมากขึ้นในการอภิปรายเรื่องกฎระเบียบของภาคส่วนนี้ เมื่อวันที่ 26 กรกฎาคม บริษัท AI ของอเมริกาสี่แห่ง ได้แก่ Google, Microsoft, Anthropic และ OpenAI ได้ตัดสินใจสร้างองค์กรวิชาชีพของตนขึ้นมา โดยมีชื่อว่า “ฟอรัมโมเดลชายแดน- มีวัตถุประสงค์เพื่อส่งเสริม “การพัฒนาที่รับผิดชอบและปลอดภัย» สำหรับ “โมเดลชายแดน» ระบบ AI ที่ซับซ้อนที่สุด โดยการออกกฎเกณฑ์จำนวนหนึ่ง เมื่อวันที่ 25 ตุลาคม ได้มีการแต่งตั้งผู้อำนวยการขององค์กรนี้ตามไฟแนนเชียลไทมส์- นี่คือ Chris Meserole อดีตผู้อำนวยการด้าน AI ที่ Brookings Institution ซึ่งเป็นสถาบันคลังสมองของอเมริกา
ขณะเดียวกัน พระราชบัญญัติ AI ซึ่งเป็นระเบียบข้อบังคับด้าน AI ของยุโรปก็กำลังเกิดขึ้นยังคงถูกนำมาใช้- การเจรจาครั้งต่อไประหว่างสมาชิกสภานิติบัญญัติร่วมของยุโรปทั้งสาม (คณะกรรมาธิการ รัฐสภายุโรป และสภา) จะมีขึ้นในช่วงไตรภาคที่ 5 ซึ่งจะจัดขึ้นในวันที่ 6 ธันวาคม เพื่อให้มีผลใช้บังคับในอีกสองปีครึ่งที่ เร็วที่สุด ในระหว่างนี้ ความพยายามใหม่ๆ ในการควบคุมกฎระเบียบยังคงเกิดขึ้นได้
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-
แหล่งที่มา : คำประกาศ G7 วันที่ 30 ตุลาคม 2023