一位著名的數據影響研究出版商已經確定了它在調節生物識別技術和其他基於AI的軟件的努力中慷慨地描述的是一種調節性未對準。
Ada Lovelace Institute說,歐盟的製定者建議的 你有文件取決於技術標準,以“提供合規性必要的詳細指導”,以保護人權的目標。
加強隱私權的技術標準和標準可能會以最終語言互相告知。但是製定技術規則的組織“似乎缺乏做出解釋人權法的決定的專業知識和合法性,”根據研究所。
研究人員概述了一些政策策略,這些策略可能會實施《 AI法》。 (立法是預計將被投票由本月關鍵的歐洲議會委員會。
他們說,關鍵權利問題可能只是獲得光澤或完全被忽視。該報告指出,生物識別ID系統(廣泛認為是高風險操作)被模糊地稱為“需要“適當的準確性”。
在擬議的AI法案的另一部分中風險遵循緩解過程“必須'可接受'。透明
同時,即使將生物識別過程對準歐盟GDPR的技術要求,2016年通過,仍然是一個挑戰。
在其他段落中的方向太少了,例如私人承包商留下的地方。他們可能是確定在考慮發展時可以接受權利風險的可接受度量的人生物識別監測的部署軟體.
該研究所建議立法者立即深入參與民間社會組織。他們還應該是“探索機構創新以填補監管差距”。