聯邦政府的技術標準組織NIST提出了四個可解釋AI的原則。
深奧的話題不是。要求一個人或組織解釋每個決定背後的原因將是站不住腳的,但是民主社會是基於這樣的假設:如果有足夠的需要,可以對所有決策做出解釋。
由於沒有有意義的額外資源隨著時間的推移所需的時間,因此可以說,對AI決策的按需解釋應適用於有足夠需求的任何人。
第一個草稿原則NIST提議進行公眾審查表明,AI提供了所有產出的證據或原因。
接下來,算法必須對占據所有各種角色及其行動的各種角色的人們進行解釋。這意味著消費者和其他最終用戶一直返回撰寫算法的組織首席執行官。沒有兩個角色將通過同樣的解釋扮演。
“解釋正確反映系統生成的過程”的決定也是基本的。
最後,僅應使用“在設計的條件下或系統對其產出充分信心時”才能使用算法。 ”不能期望AI系統在沉沒或智力環境中取得成功。
原則刺激了一個LinkedIn郵政由AI從業者埃里克·赫斯(Eric Hess)指出了一個商業世界的愚蠢,“因為計算機告訴我這樣”將是任何層面上可以接受的解釋。
如果發生這種情況,赫斯寫道:“您要么有訓練問題,要么是工具問題。”或兩者兼而有之。 ”