Paravision已經發表了一系列原則,以指導面部生物識別技術和其他與人工智能相關的技術的道德發展。為了幫助實施其道德生物識別發展的願景,該公司還任命了伊麗莎白·亞當斯(Elizabeth M. Adams)為首席AI倫理顧問。
亞當斯(Adams)目前與斯坦福大學(Stanford University)的種族與種族比較研究中心(Center of Muthertional Insterment)和數字民間社會實驗室合作。她還積極參與明尼阿波利斯市使用的AI系統的治理和政策的努力。
在20年的技術職業生涯中,亞當斯(Adams)領導了《財富》 100強公司,美國國防部和國防情報局的舉措。她的專業知識領域包括多樣性和納入人工智能,包括面部識別績效,監視,預測分析和兒童權利的人口差異。
Adams在新聞稿中說:“ Paravision表現出了追求道德發展和使用世界一流面部識別和基於AI的計算機視覺技術的深厚願望。” “我很高興與團隊合作,並指導他們為這項批判性和具有挑戰性的技術採取道德,包容和周到的方法。”
Paravision的首席執行官Doug Aley說:“面部識別技術有可能以深刻的方式改善我們的生活,但必須以正確的意圖和保障措施進行開發和部署。” “伊麗莎白的領導,她在解決AI種族偏見方面的專業知識以及她對通過AI實現更美好未來的願景將是Paravision的寶貴資源。”
該公司在宣布的消息中表示,儘管它已經在努力減少面部識別的偏見,但亞當斯的角色將包括使Paravision勞動力對道德問題的敏感,並領導其下一步確保包容性。除了“道德技術設計”過程,Paravision計劃將道德工作流與其產品開發過程,合作夥伴參與和解決方案部署相結合。
“伊麗莎白一直在思考AII的最前沿,任何組織都很幸運能夠為計算機視覺創造更好的未來,為計算機視覺創造更好的未來。”斯坦福大學人工人工智能研究所(HAI)副主任丹尼爾·E·霍(Daniel E.
Paravision的人工智能原則將公司承擔道德培訓,並認真對其生物識別技術進行銷售。對道德培訓的承諾將通過平衡的培訓數據,獲得所有必要的數據權以及對基準測試的大量投資進行。 FTC已訂購Paravision刪除舊算法該機構裁定沒有權利的數據進行了培訓。
認真的銷售承諾包括審查潛在的合作夥伴和客戶,僅銷售符合高質量質量的AI模型,並避免了美國國務院和人權組織被確定為侵犯權利的國家。它還涉及將其分配限制在執法,國防和情報機構中,而Paravision專門致力於不允許在致命的自主武器系統(法律)中使用其技術,並確保針對不同用例的基線準確度。