ฟอรัมข้อมูลและประชาธิปไตยต้องการสร้างกลไกการรับรองโดยสมัครใจสำหรับ "AI เพื่อสาธารณประโยชน์" แนวคิด: สร้างป้ายกำกับที่คล้ายกับการรับรองการค้าที่เป็นธรรมเพื่อสร้างความตระหนักรู้ของผู้บริโภคและสนับสนุนการพัฒนาระบบ AI ที่มีจริยธรรม Katharina Zügel ผู้จัดการนโยบายภายในองค์กร อธิบายให้เราฟังว่ากลไกนี้จะประกอบด้วยอะไรบ้าง
ป้ายกำกับสำหรับระบบ AI ที่มีจริยธรรม? นี่คือข้อเสนอของ Forum on Information and Democracy ซึ่งเป็นองค์กรที่ก่อตั้งในปี 2019 โดยองค์กรพัฒนาเอกชนหลายแห่ง รวมถึง Reporters Without Borders เช่นเดียวกับป้ายกำกับ “Fair Trade” แนวคิดก็คือการสร้าง “กลไกการรับรองโดยสมัครใจเพื่อประโยชน์ของ AI สาธารณะ» อธิบาย Katharina Zügel ผู้จัดการฝ่ายนโยบายภายในองค์กร เธอเป็นผู้เขียนกบทความวิจัยถูกมองว่าเป็นสิ่งก่อสร้างแรกต่อระบบป้ายกำกับ "AI เพื่อสาธารณประโยชน์" ในอนาคต
01net.com: ภาค AI เต็มไปด้วยร่างข้อบังคับและจรรยาบรรณ: พระราชบัญญัติ AI, สนธิสัญญาสหภาพยุโรปว่าด้วย AI,เอสบี 1047ในสหรัฐอเมริกา... โครงการการรับรองนี้ประกอบด้วยอะไรบ้าง และแตกต่างจากโครงการริเริ่มในปัจจุบันทั้งหมดอย่างไร
Katharina Zügel: “ในปัจจุบัน เครื่องมือ AI จำนวนมากเปิดให้บุคคลทั่วไปเข้าถึงได้ แต่ยังรวมถึงหน่วยงานภาครัฐด้วยผู้ใช้เหล่านี้เลือกระบบแบบสุ่มเล็กน้อยหรือขึ้นอยู่กับคุณสมบัติที่ดีที่สุด เราเห็นมันด้วยเปิดตัว ChatGPTทุกคนไปที่นั่นโดยไม่จำเป็นต้องเข้าใจว่ามันเกี่ยวข้องกับอะไร: ระบบนี้ได้รับการฝึกฝนอย่างไร, เกิดอะไรขึ้นกับข้อมูลของฉัน, AI นี้ให้อะไร, โลกทัศน์ที่ซ่อนอยู่ประเภทใด ดังนั้นแนวคิดของเราคือการดึงแรงบันดาลใจจากสิ่งที่เกิดขึ้นในภาคส่วนอื่นๆ ซึ่งการสร้างฉลากมีผลกระทบต่อผู้บริโภค แต่ยังรวมถึงบริษัทที่สร้างผลิตภัณฑ์ด้วย -
AI เพื่อสาธารณประโยชน์หมายถึงอะไร?
ระบบ AI ส่วนใหญ่ได้รับการพัฒนาโดยบริษัทเอกชนขนาดใหญ่ที่ดำเนินการดังกล่าวโดยคำนึงถึงผลกำไรทางเศรษฐกิจเป็นหลัก สำหรับเรา AI เพื่อสาธารณประโยชน์คือ AI ซึ่งมีวัตถุประสงค์หลักเพื่อให้บริการเพื่อสาธารณประโยชน์ ซึ่งไม่รวมระบบ AI ที่พัฒนาโดยไม่เคารพสิทธิแรงงาน หรือมีผลกระทบต่อสิ่งแวดล้อมอย่างมาก หรือไม่แม้แต่จะพยายามลดทอนลง... หรือที่ไม่เคารพคำถามเกี่ยวกับความหลากหลายและการเป็นตัวแทน
วัตถุประสงค์ของการรับรองนี้คือเพื่อส่งเสริมให้บริษัทต่างๆ สร้างระบบที่เป็นประโยชน์ต่อสังคมและประชาธิปไตยมากขึ้น แต่ยังสร้างความต้องการเครื่องมือประเภทนี้ด้วย เราต้องการใช้ตัวย่อที่ผู้ใช้จดจำได้ง่ายมาก เนื่องจากในปัจจุบัน แน่นอนว่าโดยเฉพาะอย่างยิ่งในบริบทของยุโรป กลไกการรับรองที่จะถูกสร้างขึ้นด้านความปลอดภัย แต่นี่ยังคงเป็นมุมมองของกฎระเบียบ แนวคิดก็คือสร้างสิ่งที่ผู้บริโภคสามารถเข้าถึงได้และเกินกว่าขนาดของสหภาพยุโรปซึ่งเป็นภูมิภาคเดียวที่กฎหมายมีความก้าวหน้ามาก ฉลากในอนาคตจะทำให้มีโซลูชันในระดับโลกได้มากขึ้น
ปัจจุบันมีระบบ AI หลายร้อยระบบ เช่น ChatGPT, Gemini, Llama, Claude, Granite, Mistral: ระบบใดระบบหนึ่งที่สอดคล้องกับสิ่งที่คุณเรียกว่า “AI เพื่อประโยชน์ทั่วไป” หรือไม่
เรายังไม่สามารถประเมินเครื่องมือ AI ที่มีอยู่ได้ แต่ใช่ มี AI ที่น่าสนใจทั่วไปในปัจจุบัน แต่มีขนาดเล็กกว่า ตัวอย่างเช่น เรามีความใกล้ชิดกับ Reporters Without Borders ซึ่งเป็นหนึ่งในองค์กรที่สร้างฟอรัมขึ้นมา และพวกเขากำลังทำงานเพื่อสร้างเครื่องมือ AI สำหรับสื่อและนักข่าวเกี่ยวกับสภาพภูมิอากาศโดยเฉพาะ ซึ่งจะช่วยให้นักข่าวทำการวิจัยที่ตรงเป้าหมายมากขึ้นเกี่ยวกับปัญหาสภาพภูมิอากาศ
ดังนั้นนี่คือเครื่องมือที่ถูกสร้างขึ้นโดยมีจุดประสงค์เพื่อนำบางสิ่งมาสู่สังคมของเรา ซึ่งมีข้อตกลงกับทุกสถาบันที่ให้ข้อมูลเพื่อฝึก AI แม้ว่าอัลกอริธึมของมันจะถูกสร้างขึ้นโดยหนึ่งในยักษ์ใหญ่ของภาคส่วนนี้ก็ตาม แต่การรับรองในอนาคตจะไม่จำกัดเฉพาะ AI เฉพาะเหล่านี้ แนวคิดก็คือเสนอให้พัฒนาระบบ AI ขนาดใหญ่ (ที่ได้รับความนิยมมากที่สุด หมายเหตุจากบรรณาธิการ) ในลักษณะนี้
คุณได้ตีพิมพ์ “บทความวิจัย” อย่างเป็นรูปธรรมเมื่อวันที่ 19 กันยายน: ขั้นตอนต่อไปของคุณคืออะไร?
แนวคิดในการสร้างกลไกการรับรองสำหรับ AI มาจากครั้งล่าสุดของเรารายงานที่เผยแพร่เมื่อเดือนกุมภาพันธ์ปีที่แล้ว- เป็นหนึ่งในนักวิจัย Martha Cantero Gamito (ศาสตราจารย์ด้านกฎหมายเทคโนโลยีสารสนเทศและนักวิจัยที่ Florence School, หมายเหตุบรรณาธิการ) ซึ่งเป็นผู้เสนอแนวคิดฉลาก AI ที่เป็นประโยชน์ต่อสาธารณะนี้ และเป็นผู้จัดทำข้อเสนอนี้ บทความวิจัยนี้เป็นเพียงก้าวแรกเท่านั้น
เราจะจัดชุดการประชุมเชิงปฏิบัติการกับผู้มีส่วนร่วมที่แตกต่างกัน เช่น UNESCO สมาคมอื่น ๆ และประเทศหุ้นส่วน แนวคิดก็คือว่าสิ่งนี้ส่งผลให้เกิดสิ่งที่เป็นรูปธรรม โดยเริ่มต้นการสร้างกลไกนี้ สำหรับการประชุมสุดยอด AI ซึ่งวางแผนไว้สำหรับ กุมภาพันธ์ในปารีส (ฟอรัมเกี่ยวกับข้อมูลและประชาธิปไตยมีวัตถุประสงค์เพื่อดำเนินการตามหลักการของ "ความร่วมมือเพื่อข้อมูลและประชาธิปไตย" ซึ่งเป็นข้อความที่ได้รับอนุมัติจาก 52 รัฐ หมายเหตุบรรณาธิการ-
หากต้องการเปิดตัวป้ายกำกับนี้ มีสองขั้นตอน ก่อนอื่นเราต้องกำหนดระบบและโครงสร้างการกำกับดูแลก่อน เมื่อดำเนินการเสร็จแล้ว จำเป็นต้องกำหนดเกณฑ์การประเมิน และเริ่มต้นกระบวนการกำหนดมาตรฐาน (เช่น กำหนดสิ่งที่ต้องปฏิบัติตามจึงจะได้รับประโยชน์จากป้ายกำกับนี้ หมายเหตุของบรรณาธิการ) และอาจต้องใช้เวลาถึงหนึ่งปีในการกำหนดเกณฑ์อย่างแท้จริง ในรายละเอียด
เกณฑ์สำหรับป้ายกำกับนี้จะเป็นเช่นไร ใครบ้างที่สามารถนำร่องและจัดการได้
เราเสนอให้สร้างสถาบันอิสระซึ่งจะรับผิดชอบในการกำหนดมาตรฐานและแก้ไขมาตรฐานเหล่านั้น สามารถทำงานร่วมกับสถาบันออกใบรับรองที่ได้รับการควบคุมอย่างเข้มงวดอยู่แล้ว เช่น มาตรฐาน ISO
โดยพื้นฐานแล้วจะมีเกณฑ์สองประเภท ประการแรกจะเน้นไปที่บริษัทที่นำเสนอและปรับใช้เครื่องมือ AI และวิธีการทำงาน เคารพกฎหมายแรงงาน จัดให้มีธรรมาภิบาลตามระบอบประชาธิปไตย ปกป้องผู้แจ้งเบาะแส มีผลกระทบต่อสิ่งแวดล้อมหรือไม่ สามารถสร้างเครื่องมือเพื่อสาธารณประโยชน์ได้หรือไม่
ประการที่สองหมุนรอบระบบ AI และฐานข้อมูล เคารพลิขสิทธิ์และความเป็นส่วนตัวหรือไม่ มีความโปร่งใสหรือไม่ มีนักแสดงคนอื่นๆ ที่เกี่ยวข้องกับการสร้างระบบนี้และกำหนดความเสี่ยงที่ยอมรับได้และยอมรับไม่ได้หรือไม่? วันนี้คำถามสำคัญได้รับการตัดสินใจแล้วหลังประตูที่ปิดสนิทและโดยบริษัทเท่านั้น-
การสร้างและดำเนินการรับรองนี้จะต้องใช้เวลา มันจะไม่สายเกินไปใช่หรือไม่
อันที่จริง มันคงจะดีกว่าถ้ามีเมื่อห้าปีก่อน และตั้งแต่เริ่มเปิดตัวระบบ AI แต่สำหรับเรามันไม่สายเกินไป เราเห็นสิ่งนี้ในทุกวันนี้กับโซเชียลเน็ตเวิร์ก กฎหมายที่มีกฎเกณฑ์ที่เข้มงวดกว่าเกิดขึ้นหลังจากนั้น (การเปิดตัวและการยอมรับในวงกว้าง หมายเหตุบรรณาธิการ) นอกจากนี้การพัฒนาของ AI ยังไม่หยุดลง พลังและความสามารถของมันจะเพิ่มขึ้น
แนวคิดของป้ายกำกับนี้คือการย้ายออกจากแนวทางที่นำมาใช้เช่นกฎหมายยุโรป (พระราชบัญญัติ AI) ซึ่งก็คือ "หลีกเลี่ยงความเสี่ยง" หรือ "ควบคุมความเสี่ยง" ในทางตรงกันข้าม มันเป็นคำถามของการจัดเตรียมสิ่งที่เสริมกับกฎหมายที่กำลังนำมาใช้อยู่ คือการสร้างกลไกที่ประกอบด้วยการส่งเสริมสิ่งที่เป็นบวก
🔴 เพื่อไม่ให้พลาดข่าวสารจาก 01net ติดตามเราได้ที่Google ข่าวสารetวอทส์แอพพ์-