一家美國聯邦監管機構定義了四個原則,其研究人員說可以為AI系統的創建和使用建立責任感。
這項工作主要針對政府AI開發和產品,但是如果被證明有用,它可以幫助私營企業,在這種私營企業中偏見可以像黑盒AI本身一樣不透明。
在紐約時報最近的一篇文章中描述了一個令人不安的環境,該文章在強制性和輕鬆的保證幕後偷看了許多人AI中的許多人背誦。至少有些CEO不正確地感覺到數據就像沙子一樣,甚至沒有原始的罪。
這四個原則蒸餾由美國政府問責辦公室,實際上從數據開始。 (NIST有一些相關想法在此問題上,專注於生物識別技術。 )
從收集到的那一刻起,數據就會更改和偏斜。為代表性,質量和可靠性設定的強大標準為產品開發,部署和實用性提供了更堅實的基礎。
真正的思想必須用於創建數據集。是要出售與白色屬男性男性聯繫的目的嗎?還是將產品出售給有收入和渴望的人?並非所有數據都是相同的。
第二個原則是監視。 GAO表示,反复證明算法是可靠的,需要相關。
“一個人完成”是幸運的,即使在大多數情況下,也不是現實的期望。一些算法操作將需要相同的持續監督以及許多關鍵人工任務所必需的管理,包括運行電廠。
治理是高度聯繫的。 GAO建議在系統和組織層面上都進行治理,這是示例問責制的最佳方法。研究人員將其定義為創建管理,操作和監督實施的過程。
第四個原理涉及性能 - 輸出是否與目標匹配。
這是標準的B學校的東西,但是一些代理商負責人和首席執行官正在購買矽谷炒作。認為內容管理系統會徹底改變公司是一回事。如果首席執行官錯了,錢就浪費了。
通常將醫療保健公司的黑人患者與白人患者低的黑人患者優先考慮的算法不同。
《紐約時報》故事看著正在進行的挑逗偏見AI的運動提出了這個例子。大約18個月前,紐約州監管機構調查了UnitedHealth Group,據稱使用AI將黑人患者推開,“即使白人患者更健康”。
據《泰晤士報》報導,尚不清楚聯合國健康調查中得出任何結論,該怎麼辦。
該文章的開頭關註一個相對年輕的AI創新者Liz O'Sullivan,他參加了一家試圖自動消除Internet上明確圖像的初創公司。該公司向印度工人簽了標籤,他們回來的是同性夫婦的圖像,而不是同性色情,被標記為令人反感。
此後,她被任命為Parity的首席執行官,該公司正在尋找用於查找和消除AI偏見的工具。 (均等是並不孤單)
奧沙利文(O'Sullivan)在過去幾年中會見了高管和工程師,她告訴《泰晤士報》,她聽說了“通過不知情的公平性”。這意味著它們不會仔細觀察基礎數據,因為它既不是好事也不是壞的工具,並且要參與數據是引入偏見。
這就像說所有冰池都是一樣的。如果一個人看起來很穩固,然後滑冰直到證明否則。