算法信任和人工智能倫理的問題正在激發世界各地的許多機構和企業的行動。
由於關注深層對社會話語和在線信任的威脅不斷增長,包括Facebook,AI,Microsoft的合作夥伴關係在內的一群利益相關者以及來自美國和英國的學者DeepFake檢測挑戰(DFDC),為研究人員和技術開發人員提供了一個新的數據集,以使用生產新技術來識別隨著人工智能改變的視頻。
在博客文章,Facebook首席技術官Mike Schroepfer解釋說,該公司正在委託自由使用的DeepFake視頻數據集,可免費獲得社區使用,並同意在數據集中使用其圖像的付費演員。 Facebook還將為挑戰者提供合作和獎品的資金超過1000萬美元。
挑戰參數和數據集將在即將在10月舉行的國際計算機願景國際會議(ICCV)的技術工作中進行測試。在此初步測試之後,DFDC啟動和發布數據集將於12月在神經信息處理系統(NEURIPS)會議上舉行。 Facebook將參加挑戰,但不競爭獎金。
“為了從信息時代轉變為知識時代,我們必須更好地將真實的人與不受信任的內容區分開,並教育下一代以成為更好的數字公民,”電氣工程與計算機科學系教授Hany Farid教授,UC Berkeley,UC Berkeley。 “這將需要全面投資,包括行業/大學/非政府組織研究工作,以開發和運營可以快速,準確地確定哪種內容真實的技術。”
澳大利亞團體大滿貫面部識別建議
一個人權群體描述為該國,該組織是該國領先團體呼籲澳大利亞議會拒絕計劃的面部識別法,認為它們比英國的類似制度還差廣泛批評。
國會情報與安全聯合委員會(PJCIS)以及人權法律中心(HRLC)和澳大利亞人權委員會目前正在審查一項創建國家面部識別數據庫的法案提交給PJCIS抨擊建議。
HRLC稱這些提案比英國製度“更嚴厲”,並表示他們沒有為身份匹配服務的使用提供法律依據。
該法案稱:“該法案可以被認為是為當局提供了非常廣泛的能力,可以使用面部識別技術,而沒有明顯看待將受到影響的我們所有人的公民自由。”該組織的法律總監艾米麗·豪(Emily Howe)說,擬議的法律是“您在專制國家期望的事情”。
澳大利亞人權委員會對該技術的準確性“在現實世界'應用程序”中表示關注,並警告算法偏見影響執法和服務提供的潛力。
政府試圖通過身份匹配服務法案2018會議結束前沒有清除議會。
國防部為AI中心僱用倫理學家
美國國防部(DOD)聯合人工智能中心(JAIC)計劃聘請倫理學家,以指導該部門在該領域的努力,Defense.gov報告。
JAIC是一年前與骨骼人員一起發射的,但已成長為60名員工,總部,預算要求為2.68億美元。
JAIC董事空軍中將傑克·沙納漢(Jack Shanahan)說:“我們要填補的職位之一將是一個不僅在研究技術標準,而且是倫理學家的人。” “我們將吸引一個將具有深厚道德背景的人,然後該部門內部的律師將研究我們如何將其實際烘烤到國防部。”
Shanahan希望JAIC不僅成為該領域的AI技術,而且還成為“卓越中心”。他還指出,儘管由於基於隱私和公民自由的限制,俄羅斯和中國等其他一些國家可能在快速獲取數據方面具有優勢,但這並不一定會轉化為該領域的優勢。但是,Shanahan確實想加強美國政府,工業和學術界之間的聯繫。
印度敦促通過算法偏見法
在社論中觀察者研究基金會(ORF),伊利諾伊州大學 - 烏爾巴納 - 坎佩恩副教授拉克什·庫馬爾(Rakesh Kumar)教授認為,隨著在印度社會許多地區使用計算機技術進行決策,政府需要提出一項法案,以建立抵抗算法偏見的保障措施。
庫馬爾(Kumar)闡明了印度和其他地方潛在算法偏見的歷史問題和合理的例子,並審查了印度當前的法律景觀。他發現,儘管現行和擬議的規則可以增強數據保護和訪問權利,但算法偏見並未處理。
庫馬爾解釋說:“在所有其他情況下,歐洲禁止僅對個人產生重大或法律影響,享有人類人類的權利以及在所有其他情況下都存在解釋權的權利,” “政策制定者,工業和民間社會必須辯論是否適合印度的同等框架。至少,應最少的人類參與計算機模型的設計和評估。”
也可以更新有關歧視的現有法律,以將其應用於數字互動。注意到,馬哈拉施特拉邦和德里的執法已經在使用預測性警務實踐,在拉賈斯坦邦,旁遮普邦和北阿坎德邦使用了生物識別面部識別,庫馬爾建議印度政府需要採取行動來調節計算機學習和AI模型,以使他們不加深社會分裂。