Sasha Costanza-Chock ผู้เขียนร่วมของรายงานการวิจัยซึ่งพิจารณาการตรวจสอบอัลกอริทึมกล่าวว่ามีหลายพื้นที่ที่ต้องมีการปรับปรุงเพื่อเสริมประสิทธิภาพของกระบวนการและลดอันตรายจากอคติใน AI ที่ใช้ในโลกแห่งความจริงเช่นระบบการจดจำใบหน้า
พูดเกี่ยวกับไฟล์อัลกอริทึม Justice Leagueกระดาษในตอนล่าสุดของพอดคาสต์เทคโนโลยีตลาดCostanza-Chock วางตัวว่าเป็นการยากมากที่จะกำหนดประสิทธิภาพของการตรวจสอบอัลกอริทึมในการแจกจ่ายปัจจุบันเนื่องจากข้อตกลงที่ไม่เปิดเผยซึ่งผูกมัดผู้ตรวจสอบบุคคลที่หนึ่งและสองที่สามารถเข้าถึงข้อมูลและระบบของ บริษัท ที่พวกเขากำลังตรวจสอบได้มากขึ้น
พบอคติในอัลกอริทึมไม่เพียง แต่เกี่ยวข้องกับการจับคู่ไบโอเมตริกซ์เท่านั้น แต่ยังมีพื้นที่ใกล้เคียงเช่นการตรวจจับความมีชีวิตชีวาเช่นเดียวกับแอปพลิเคชัน AI ที่ไม่เกี่ยวข้อง
ในขณะที่รวบรวมรายงานการวิจัยซึ่งระบุแนวทางปฏิบัติที่ดีที่สุดที่เกิดขึ้นใหม่รวมถึงวิธีการและเครื่องมือสำหรับการตรวจสอบ AI ทีมพบว่ามีการเปลี่ยนแปลงจำนวนมากในกระบวนการตรวจสอบอัลกอริทึมเนื่องจากไม่มีมาตรฐานหรือกฎระเบียบที่สอดคล้องกันในสิ่งที่ผู้สอบบัญชีควรมองหาผู้ร่วมกล่าว ในขณะที่การตรวจสอบบางอย่างมุ่งเน้นไปที่ความถูกต้องหรือความเป็นธรรมของการฝึกอบรมและข้อมูลตัวอย่างบางคนดูความเป็นส่วนตัวและผลกระทบด้านความปลอดภัยของระบบภายใต้การตรวจสอบและมีเพียงครึ่งหนึ่งของผู้สอบบัญชีที่พวกเขาพูดคุยกับพวกเขาตรวจสอบว่า บริษัท มีระบบที่มีคุณภาพเพื่อให้ผู้ใช้สามารถร้องเรียน
“ ตอนนี้มีเพียงครึ่งหนึ่งของผู้สอบบัญชีที่บอกว่าพวกเขากำลังมองหาหนทางสำหรับผู้ที่ได้รับอันตรายจากการรายงานว่าเป็นอันตรายต่อ บริษัท นั่นเป็นสิ่งที่เราคิดว่าควรจะดูในการตรวจสอบใด ๆ แต่มันไม่ได้เกิดขึ้นตลอดเวลา” เธอกล่าว
ไม่ว่าจะมีความพยายามใด ๆ ในการปรับปรุงความโปร่งใสและความรับผิดชอบเมื่อพูดถึงการตรวจสอบอัลกอริทึม Costanza-Chock กล่าวว่าเป็นเรื่องยากที่จะพูดเพราะปัจจัยสองประการรวมถึงการไม่เปิดเผยต่อสาธารณชนเกี่ยวกับการตรวจสอบ อย่างไรก็ตามเธอเชื่อว่าสิ่งนี้สามารถเปลี่ยนแปลงได้ในอนาคตเนื่องจากการสำรวจบันทึกการยอมรับอย่างกว้างขวางสำหรับการควบคุมการตรวจสอบอัลกอริทึม
“ ขณะนี้มีการเรียกร้องให้ผู้กำกับดูแลระบบตรวจสอบอย่างรอบคอบดังนั้นตัวอย่างเช่นคณะกรรมาธิการการค้าของรัฐบาลกลางสามารถประเมินอัลกอริทึมว่าพวกเขาเลือกปฏิบัติได้หรือไม่และหากพวกเขาพบว่าระบบอัลกอริทึมได้รับการพัฒนาโดยไม่ได้รับความยินยอม
นอกเหนือจากการมีแพลตฟอร์มที่การร้องเรียนของ AI เป็นอันตรายต่อการร้องเรียนอย่างง่ายดายการศึกษาที่ดำเนินการโดยอัลกอริทึม Justice League ยังเรียกร้องให้ บริษัท ต่างๆรวบรวมข้อเสนอแนะที่เพียงพอจากชุมชนที่เสี่ยงต่อการได้รับอันตรายตั้งแต่เนิ่นๆในกระบวนการพัฒนาระบบของพวกเขา
ในขณะเดียวกันวิดีโอ YouTubeสรุปวิธีการศึกษาที่ดำเนินการและให้คำแนะนำนโยบายห้าข้อซึ่งจะต้องนำมาพิจารณาเพื่อแก้ไขปัญหาบางอย่างในการตรวจสอบอัลกอริทึม
วิดีโออธิบายว่าการศึกษาดังกล่าวจับมุมมองของบุคคล 438 คนและ 189 องค์กรที่มีส่วนร่วมในการตรวจสอบ AI และงานที่เกี่ยวข้องโดยตรงกับการตรวจสอบอัลกอริทึม ผู้สอบบัญชีบางคนที่สัมภาษณ์มีประสบการณ์มากมายในการตรวจสอบที่สัมผัสกับการใช้อุตสาหกรรมในโซเชียลมีเดียการจ้างงานสินค้าอุปโภคบริโภคประกันภัยและเครดิตในขณะที่คนอื่น ๆ มีประสบการณ์ในการทำงานให้กับรัฐบาลของรัฐและท้องถิ่นตามวิดีโอ
ในการศึกษา 82 เปอร์เซ็นต์ของผู้ตรวจสอบที่สำรวจถือว่าการเปิดเผยข้อมูลของสาธารณชนควรได้รับคำสั่งอย่างถูกกฎหมายและประมาณครึ่งหนึ่งเชื่อว่าควรมีกฎระเบียบในการกำหนดอย่างชัดเจนว่าการตรวจสอบอัลกอริทึมอย่างชัดเจน อย่างไรก็ตามคนอื่น ๆ คิดว่าควรมีมาตรฐานและแนวทาง แต่ไม่มีคำจำกัดความที่ชัดเจน
หัวข้อบทความ
ความแม่นยำ-AI-ความรับผิดชอบของอัลกอริทึม-อัลกอริทึม Justice League-อัลกอริทึม-การตรวจสอบ-แนวทางปฏิบัติที่ดีที่สุด-การจับคู่ไบโอเมตริกซ์-อคติไบโอเมตริกซ์-ไบโอเมตริกซ์-การจดจำใบหน้า-การวิจัยและพัฒนา