在這一點上,沒有算法的創造者對AI倫理辯論一無所知。到目前為止,用戶是一個不同的故事,但製造商知道他們有責任在面部生物識別系統中平衡風險與好處。
在英國之外的一篇新論文應該引起人們的興趣。它是對製造商以及最終用戶可以使用的工具的堅實會計,以更好地確保算法在道德上採購,開發和部署。
許多研究都著眼於工具包,從公平和審核到影響評估和設計的所有內容。它分解了誰在組織或價值鏈中通常使用的工具,該工具在結果的哪個階段,即使用工具的生物識別技術和其他指南。
詳盡無遺工作是由南安普敦大學的一對研究人員完成的。
在AI行業中,涉及數據(尤其是大數據)以及2017年至2020年的數據保護的崇高概念討論已逐步介紹了針對模型和算法的實踐辯論。對於那些考慮道德的人來說,數據仍然是一個關鍵的考慮。它剛剛在2021年擁有公司。
有一些例外對於通風,哲學上的企業群,但結果非常混雜。迄今為止大多數政府工作集中原則。
在39個被判斷為“具體”和“實用”的工具中(可能是收集的最大的AI倫理工具),有36個是內部自我評估文件。而且,在大多數情況下,沒有任何東西可以促使工具結果發布。
作者將這些工具與其他行業和角色(例如環境影響文件)的工具進行了比較,發現了所有令人震驚的。
他們發現,只有IEEE標準需要外部驗證,並且有兩個工具涉及公共登記冊以迫使透明度。
外部來源的道德審查和評估必須有更多的空間,以避免群體思考和過度收入壓力,這可能會損害生物識別系統發展和更大的社會。
同時,工具必須包含在內。最終用戶和消費者等人幾乎沒有機會參加審計和評估。
這可能是最令人驚訝的發現,從資金到更新和升級通常是供應商的事件。從歷史上看,反饋已被解僱:“您只是用戶。”