หน่วยงานเฝ้าระวังของรัฐบาลกลางสหรัฐได้กำหนดหลักการสี่ประการที่นักวิจัยกล่าวว่าสามารถสร้างความรับผิดชอบในการสร้างและการใช้ระบบ AI
งานนี้มุ่งเน้นไปที่การพัฒนา AI ของรัฐบาลและผลิตภัณฑ์เป็นหลัก แต่ถ้าได้รับการพิสูจน์แล้วว่ามีประโยชน์ก็สามารถช่วยในอุตสาหกรรมเอกชนที่มีทัศนคติต่ออคติสามารถเป็นทึบแสงเหมือนกล่องดำ AI เอง
สภาพแวดล้อมที่น่ารำคาญมีการอธิบายไว้ในบทความนิวยอร์กไทม์สเมื่อเร็ว ๆ นี้ซึ่งมองไปข้างหลังม่านแห่งการรับรองและการรับรองอย่างง่ายดายว่าหลายคนในภาคเอกชน AI ท่อง อย่างน้อยซีอีโอบางคนก็รู้สึกไม่ถูกต้องข้อมูลนั้นเหมือนทราย - ปราศจากบาปดั้งเดิม
หลักการทั้งสี่กลั่นโดยสำนักงานความรับผิดชอบของรัฐบาลสหรัฐในความเป็นจริงเริ่มต้นด้วยข้อมูล (NIST มีบางอย่างที่เกี่ยวข้องความคิดในเรื่องนี้มุ่งเน้นไปที่ชีวภาพ)
ข้อมูลมีการเปลี่ยนแปลงและเบ้จากช่วงเวลาที่รวบรวม มาตรฐานที่แข็งแกร่งที่กำหนดไว้สำหรับการเป็นตัวแทนคุณภาพและความน่าเชื่อถือเป็นรากฐานที่แข็งแกร่งยิ่งขึ้นสำหรับทุกขั้นตอนอื่น ๆ ในการพัฒนาผลิตภัณฑ์การปรับใช้และประโยชน์
ความคิดจริงต้องไปสร้างชุดข้อมูล วัตถุที่ขายความสัมพันธ์กับชายผิวขาวคนผิวขาวหรือไม่? หรือจะขายผลิตภัณฑ์ให้กับทุกคนที่มีรายได้และความปรารถนา? ข้อมูลทั้งหมดไม่เหมือนกัน
หลักการที่สองคือการติดตาม การพิสูจน์ซ้ำ ๆ ว่าอัลกอริทึมมีความน่าเชื่อถือและจำเป็นต้องมีความเกี่ยวข้องตาม GAO
“ One and Done” โชคดีไม่ใช่ความคาดหวังที่สมจริงแม้ส่วนใหญ่จะเป็นไปได้ การดำเนินการอัลกอริทึมบางอย่างจะต้องดำเนินการอย่างต่อเนื่องการกำกับดูแลและการจัดการที่จำเป็นกับงานของมนุษย์ที่สำคัญมากมายรวมถึงการใช้โรงไฟฟ้าเช่น
การกำกับดูแลมีความเกี่ยวข้องอย่างมาก GAO แนะนำการกำกับดูแลทั้งระบบและระดับองค์กรเป็นวิธีที่ดีที่สุดในการเป็นตัวอย่างของความรับผิดชอบ นักวิจัยกำหนดว่าเป็นการสร้างกระบวนการในการจัดการดำเนินงานและดูแลการดำเนินการ
หลักการที่สี่เกี่ยวข้องกับประสิทธิภาพ - เอาต์พุตตรงกับวัตถุประสงค์
มันเป็นเรื่องมาตรฐาน B-School แต่หัวหน้าหน่วยงานและซีอีโอบางคนกำลังซื้อเข้าสู่ Silicon Valley Hype การคิดว่าระบบการจัดการเนื้อหาจะปฏิวัติ บริษัท เป็นสิ่งหนึ่ง หากซีอีโอผิดเงินก็สูญเปล่า
อัลกอริทึมที่จัดลำดับความสำคัญของผู้ป่วยผิวดำของ บริษัท ด้านการดูแลสุขภาพเป็นประจำที่ต่ำกว่าผู้ป่วยผิวขาวนั้นแตกต่างกัน
The New York Timesเรื่องราวดูการรณรงค์อย่างต่อเนื่องเพื่อหยอกล้ออคติจาก AI นำตัวอย่างนั้นขึ้นมา ประมาณ 18 เดือนที่ผ่านมาหน่วยงานกำกับดูแลของรัฐนิวยอร์กได้ตรวจสอบ UnitedHealth Group ว่าถูกกล่าวหาว่าใช้ AI ที่ผลักผู้ป่วยผิวดำออกไป“ แม้ว่าผู้ป่วยสีขาวจะมีสุขภาพดีขึ้น”
ไม่มีใครรู้ตามเวลาจะเกิดอะไรขึ้นถ้ามีข้อสรุปใด ๆ ในการสอบสวนของ UnitedHealth
บทความนี้เปิดตัวโดยมุ่งเน้นไปที่ผู้ริเริ่ม AI รุ่นเยาว์ที่มีชื่อว่า Liz O'Sullivan ผู้เข้าร่วมในการเริ่มต้นพยายามที่จะกำจัดภาพที่ชัดเจนบนอินเทอร์เน็ตโดยอัตโนมัติ บริษัท ทำสัญญาติดแท็กให้กับคนงานอินเดียและสิ่งที่พวกเขาได้รับกลับมาคือภาพของคู่รักเพศเดียวกัน-ไม่ใช่ภาพอนาจารเพศเดียวกัน-ติดแท็กเป็นเรื่องน่ารังเกียจ
เธอได้รับการตั้งชื่อว่าซีอีโอของ Parity ซึ่งกำลังค้นหาเครื่องมือในการค้นหาและลบอคติใน AI (ความเท่าเทียมกันคือไม่ได้อยู่คนเดียว-
การประชุมผู้บริหารและวิศวกรในช่วงไม่กี่ปีที่ผ่านมาโอซัลลิแวนบอกกับไทม์สเธอได้ยินเกี่ยวกับ“ ความยุติธรรมผ่านการไม่รู้ตัว” นั่นหมายความว่าพวกเขาไม่ได้มองข้อมูลพื้นฐานอย่างใกล้ชิดเพราะมันไม่ใช่เครื่องมือที่ดีหรือไม่ดีและการมีส่วนร่วมกับข้อมูลคือการแนะนำอคติ
นั่นก็เหมือนกับการบอกว่าบ่อน้ำแข็งทั้งหมดเหมือนกัน หากมีคนดูมั่นคงออกไปที่นั่นและเล่นสเก็ตจนกว่าจะพิสูจน์เป็นอย่างอื่น
หัวข้อบทความ
ความแม่นยำ-AI-อัลกอริทึม-ปัญญาประดิษฐ์-ไบโอเมตริกซ์-ชุดข้อมูล-การตรวจ-การวิจัยและพัฒนา-มาตรฐาน-รัฐบาลสหรัฐฯ