คณะกรรมาธิการยุโรปได้เปิดตัวกฎใหม่สำหรับไบโอเมตริกซ์และแอพพลิเคชั่นปัญญาประดิษฐ์อื่น ๆ (AI) ที่ถือว่ามีความเสี่ยงสูง 'ตั้งค่าปรับสูงถึง 6 เปอร์เซ็นต์ของการหมุนเวียนทั่วโลกสำหรับ บริษัท ที่พบในการละเมิดรายงาน-
ข้อเสนอที่ดีที่เพิ่มขึ้นนั้นแทนที่การลงโทษสูงสุด 4 เปอร์เซ็นต์ที่เสนอก่อนหน้านี้และกล่าวว่าค่าปรับในเรื่องนี้ควรเข้มงวดเป็นพิเศษเพื่อหลีกเลี่ยงเทคโนโลยีที่มีศักยภาพในการควบคุมจากรัฐบาลเผด็จการ ในวันประกาศสมาชิกรัฐสภายุโรป 40 คนเรียกร้องให้มีการห้ามการรับรู้ใบหน้าและชีวภาพอื่น ๆในพื้นที่สาธารณะ-
การใช้ระบบการระบุไบโอเมตริกซ์ระยะไกลแบบเรียลไทม์โดยการบังคับใช้กฎหมายจะถูก จำกัด ให้ป้องกันการโจมตีของผู้ก่อการร้ายการหาเด็กที่หายไปและเหตุฉุกเฉินความมั่นคงสาธารณะบลูมเบิร์กรายงาน ระบบ AI ที่มีความเสี่ยงสูงจะต้องใช้ชุดข้อมูลคุณภาพสูงตรวจสอบให้แน่ใจว่ามีการตรวจสอบย้อนกลับและการกำกับดูแลของมนุษย์และจะต้องได้รับการประเมินเพื่อให้สอดคล้องกับกฎก่อนการปรับใช้
กฎใหม่ได้รับการประกาศโดยหัวหน้าเทคโนโลยียุโรป Margaret Vestige และยังกล่าวถึงค่าปรับสูงถึง 2 เปอร์เซ็นต์ของการหมุนเวียนสำหรับการให้ข้อมูลที่ไม่ถูกต้องหรือทำให้เข้าใจผิดแก่เจ้าหน้าที่
เอกสารซึ่งรายงานครั้งแรกโดย French Online News Publication Contexte ได้รับการยอมรับถึงประโยชน์ของเทคโนโลยีการจดจำใบหน้าเพื่อช่วยค้นหาเด็กและผู้ก่อการร้ายที่หายไป นอกจากนี้ยังชี้แจงตำแหน่งก่อนหน้าของสหภาพยุโรปเกี่ยวกับเครื่องมือเฝ้าระวังมวลชนและชีวภาพสาธารณะและเทคโนโลยีเหล่านี้ควรอยู่ภายใต้การตรวจสอบอย่างจริงจังจากรัฐบาล
คณะกรรมาธิการการค้าของรัฐบาลกลางของสหรัฐยินดีที่จะควบคุมความเป็นธรรมของ AI
ในสัปดาห์สำคัญสำหรับกฎระเบียบของแอปพลิเคชัน AI ทั่วโลก FTC ได้สะท้อนความกังวลของสหภาพยุโรปและเผยแพร่กโพสต์บล็อกในการพัฒนาที่เป็นธรรมและการปรับใช้เทคโนโลยี
FTC ประกาศว่าใบหน้าทางชีวภาพที่เป็นอันตรายในขณะที่ออกคำสั่งที่เสนอถึง Paravisionเกี่ยวข้องกับการปฏิบัติมรดกเมื่อต้นปีนี้
ตามที่โพสต์โดยทนายความ FTC Elisa Jillson ในขณะที่มีประโยชน์ในการปรับปรุงการแพทย์การเงินการดำเนินธุรกิจสื่อและอื่น ๆ เทคโนโลยี AI ใหม่อาจทำลายกฎหมายคุ้มครองผู้บริโภคที่มีอยู่
“ ตัวอย่างเช่นรูปแบบการทำนาย COVID-19 สามารถช่วยระบบสุขภาพต่อสู้กับไวรัสผ่านการจัดสรรเตียงไอซียูที่มีประสิทธิภาพเครื่องช่วยหายใจและทรัพยากรอื่น ๆ ” โพสต์อ่าน “ แต่เป็นการศึกษาล่าสุดในวารสารสมาคมสารสนเทศทางการแพทย์อเมริกันชี้ให้เห็นว่าหากแบบจำลองเหล่านั้นใช้ข้อมูลที่สะท้อนถึงอคติทางเชื้อชาติที่มีอยู่ในการส่งมอบการดูแลสุขภาพ AI ที่มีประโยชน์ต่อผู้ป่วยทุกราย
เพื่อจัดการกับอคติเหล่านี้จิลสันเรียกร้องให้ บริษัท เทคโนโลยีให้รากฐานที่แข็งแกร่งสำหรับโมเดล AI ของพวกเขาในรูปแบบของชุดข้อมูลที่เหมาะสม ควรพิจารณาผลลัพธ์ที่เลือกปฏิบัติเมื่อพัฒนา AI และ บริษัท ควรซื่อสัตย์และโปร่งใสในการเรียกร้องเกี่ยวกับสิ่งที่อัลกอริทึมของพวกเขาสามารถส่งมอบได้
ในที่สุด บริษัท ควรรับผิดชอบต่อประสิทธิภาพของอัลกอริทึม หากพวกเขาทำไม่ได้จิลสันกล่าวว่า FTC อาจต้องเข้าไปแทรกแซง
“ ตัวอย่างเช่นหากอัลกอริทึมของคุณส่งผลให้มีการเลือกปฏิบัติด้านเครดิตกับชั้นเรียนที่ได้รับการคุ้มครองคุณอาจพบว่าตัวเองต้องเผชิญกับการร้องเรียนที่กล่าวหาการละเมิดพระราชบัญญัติ FTC และ ECOA” เธออธิบาย “ ไม่ว่าจะเกิดจากอัลกอริทึมที่ลำเอียงหรือโดยการประพฤติมิชอบของมนุษย์ในความหลากหลายที่น่าเบื่อหน่ายมากขึ้น FTC ให้ข้อกล่าวหาเรื่องการเลือกปฏิบัติด้านเครดิตอย่างจริงจังดำเนินการกับ Bronx Hondaแสดงให้เห็นว่า” จิลสันสรุป
Biometrics Expert และ Maryland Test สถานที่นักวิทยาศาสตร์ข้อมูลหลักจอห์นฮาวเวิร์ดเรียกว่าบันทึกเป็น“ ช่วงเวลาสำคัญสำหรับการควบคุมของ AI ในสหรัฐอเมริกา” ในกLinkedInโพสต์อ้างถึงการเน้นการทดสอบและผลลัพธ์ที่มีต่อเจตนาและความตั้งใจของ FTC ในการควบคุมความเป็นธรรมในอัลกอริทึม
หัวข้อบทความ
AI-การระบุไบโอเมตริกซ์-ไบโอเมตริกซ์-สหภาพยุโรป-การจดจำใบหน้า-ระเบียบข้อบังคับ-ประเทศสหรัฐอเมริกา-การเฝ้าระวังวิดีโอ