歐盟委員會發布了新的生物識別技術規則和其他人工智能(AI)應用程序,被認為是“高風險”,將違反公司的全球營業額佔全球周轉額的6%,路透社。報告。
增加的罰款提案取代了先前提議的4%最高罰款,並提到在這方面的罰款應特別嚴格,以避免具有專制政府控制潛力的技術。在公告的前夕,歐洲議會的40名成員呼籲禁止面部識別和其他生物識別技術在公共場所。
執法部門使用實時遠程生物特徵識別系統將僅限於防止恐怖襲擊,發現失踪兒童和公共安全緊急情況,彭博報告。高風險的AI系統還將被要求使用高質量的數據集,確保可追溯性和人類的監督,並且必須在部署前對規則進行評估。
歐洲技術負責人瑪格麗特·韋德吉(Margaret Vestige)宣布了新規定,並提到罰款最高2%的營業額,以向當局提供錯誤或誤導性信息。
該文件最初是由法國在線新聞出版物《環境》報導的,它承認面部識別技術的好處是幫助找到失踪的兒童和恐怖分子。它也澄清了歐盟先前在大規模監視工具上的立場和公共生物識別技術,以及這些技術應始終受到政府的嚴重審查。
美國聯邦貿易委員會願意規範AI公平性
在全球AI應用程序的一周中,FTC回應了歐盟的一些關注點,並發布了A博客文章關於技術的公平發展和部署。
FTC宣佈在發出擬議命令時面臨生物識別技術危險帕拉維斯與今年早些時候的遺產實踐有關。
根據FTC律師Elisa Jillson的帖子,儘管有助於改善醫學,金融,業務運營,媒體等有用,但新的AI技術也可能會破壞現有的消費者保護法。
“例如,COVID-19的預測模型可以通過有效分配ICU床,呼吸機和其他資源來幫助衛生系統對抗病毒,”該帖子寫道。 “但是作為一個最近的研究在《美國醫學信息學協會雜誌》中,如果這些模型使用反映醫療保健分娩中現有種族偏見的數據,那麼旨在使所有患者受益的AI可能會使有色人種的醫療保健差異惡化。 ”
為了解決這些偏見,吉爾森敦促技術公司以適當的數據集的形式為其AI模型提供堅實的基礎。在開發AI時,還應考慮歧視性結果,並且公司應誠實和透明地宣稱其算法可以提供什麼。
最後,公司應該對算法的性能負責。吉爾森說,如果他們不這樣做,FTC可能必須干預。
她解釋說:“例如,如果您的算法對受保護的班級產生信貸歧視,您可能會發現自己面臨著指控違反《 FTC法案》和《 ECOA》的投訴。” “無論是由偏見的算法引起的還是由更平淡的品種的人類不當行為,FTC非常重視信貸歧視的指控,因為它是最近的反對布朗克斯本田的行動演示。 ”吉爾森總結道。
生物識別專家和馬里蘭州測試設施主要數據科學家約翰·霍華德稱該備忘錄為“在美國監管AI的重要時刻”LinkedIn帖子,理由是它強調測試和結果而不是意圖,以及FTC願意調節算法公平性的意願。