ในการพัฒนาที่ให้กำลังใจเจ้าหน้าที่ของรัฐกำลังกำหนดนโยบายความรับผิดชอบสำหรับการสร้างและการใช้อัลกอริทึมรวมถึงผู้ที่ปฏิบัติงานทางชีวภาพ
จำนวนตัวอย่างของสิ่งนี้มีขนาดเล็ก นโยบาย“ มากกว่า 40” ในขั้นตอนต่าง ๆ ของการดำเนินการในประมาณ 20 รัฐบาลท้องถิ่นและรัฐบาลแห่งชาติถูกค้นพบใหม่รายงานเขียนโดยสามองค์กรที่ไม่แสวงหาผลกำไรที่มีสัดส่วนการลงทุนในหัวข้อ
การเผยแพร่ผลงานคือ Ada Lovelace Institute, AI Now Institute และ Open Government Partnership Lovelace ศึกษาว่า AI ควรทำงานเพื่อสังคมอย่างไร ตอนนี้ AI แสวงหาผลกระทบทางสังคมของอัลกอริทึมและเปิดล็อบบี้ของรัฐบาลเพื่อความโปร่งใส
ทั้งสามยังพบว่านักเขียนนโยบายส่วนใหญ่อาศัยอยู่ในประเทศที่พัฒนาแล้วแม้ว่าการใช้งานทางชีวภาพและการตัดสินใจอัลกอริทึมโดยรัฐบาลเป็นแนวโน้มระดับโลก และไม่มีใครอายุเกินสามปี
อย่างไรก็ตามมันจะเป็นการเดิมพันที่ปลอดภัยว่าในอัตราร้อยละหน่วยงานภาครัฐมีการใช้งานมากกว่าธุรกิจที่อยู่ในระบบการถือครอง (รวมถึงกรอบนักพัฒนาและผู้ใช้) รับผิดชอบต่อผลลัพธ์ที่ได้จาก AI
รายงานมีคำแนะนำจำนวนมากเกี่ยวกับการออกแบบและการใช้งานที่มุ่งเน้นไปที่การตรวจสอบและประเมินนโยบาย ตามรายงานของผู้เขียนฟิลด์นั้นใหม่เกินกว่าที่จะสรุปได้ว่านโยบายผลกระทบมีอะไรหรือมีประสิทธิภาพเพียงใด
ผู้กำหนดนโยบายควรรวมการปฏิบัติหลายประการในช่วงแรก ๆ เหล่านี้รวมถึงความโปร่งใสที่แท้จริงเกี่ยวกับสมมติฐานและวัตถุประสงค์ของกลไกนโยบายความรับผิดชอบ
โดยธรรมชาติผู้เขียนแนะนำการมีส่วนร่วมเชิงกลยุทธ์กับหน่วยงานที่เกี่ยวข้องกับ AI รวมถึงการมีส่วนร่วมอย่างต่อเนื่องกับชุมชนทั้งหมดที่ได้รับผลกระทบจากการใช้ชีวภาพและอัลกอริทึม
ท่ามกลางนโยบายความรับผิดชอบที่ศึกษาคือสิ่งที่นำไปใช้ในเมืองนิวยอร์ก-อัมสเตอร์ดัมรัฐอินเดียทมิฬนาฑู,สหราชอาณาจักรฟินแลนด์สวีเดนและนิวซีแลนด์-
รัฐบาลสหรัฐฯสัมผัสกับนโยบายความรับผิดชอบไม่บ่อยนักและเกือบทุกครั้งในรูปแบบของกรายงาน Watchdogคำเตือนของการหลีกเลี่ยงความผิดพลาดอย่างง่ายดายสำหรับผู้กำหนดนโยบาย
หัวข้อบทความ
สถาบัน Ada Lovelace-AI-AI Now Institute-ความรับผิดชอบของอัลกอริทึม-ความโปร่งใสอัลกอริทึม-ไบโอเมตริกซ์-ระเบียบข้อบังคับ