
去年3月,微軟在Twitter上發布了一個人工智能的聊天機器人Tay時,事情發生了一個災難性的轉變。在24小時內,該機器人在種族主義者中湧出了新納粹狂歡,其中大部分是通過結合與之互動的Twitter用戶的語言來挑選的。
不幸的是,新的研究發現,Twitter巨魔並不是AI設備可以學習種族主義語言的唯一途徑。實際上,任何人人工智慧根據科學家的說法,從人類語言中學到的可能會以與人類相同的方式消失。
研究人員進行了廣泛使用的實驗機器學習系統稱為單詞表示(手套)的全球向量,發現他們測試的每種人類偏見都出現在人工系統中。 [超級智能機器:7機器人期貨這是給出的
普林斯頓大學計算機科學博士後研究員Aylin Caliskan說:“看到這些模型中嵌入的所有結果真是令人驚訝。”她告訴Live Science,即使是對Wikipedia或News文章(如Wikipedia或News文章)進行“訓練”的AI設備,以反映出人類的常見偏見。
內置偏見
手套是一種用於從文本中提取關聯的工具 - 在這種情況下,是從萬維網中提取的標準語言。
心理學家早已知道人腦根據單詞之間的基礎含義之間的關聯。一種稱為隱式協會測試的工具使用反應時間來證明這些關聯:人們看到一個像“ daffodil”之類的詞以及宜人或不愉快的概念(例如“痛苦”或“美”),並且必須使用密鑰媒體快速將術語快速關聯。毫不奇怪,鮮花與積極概念更快相關。例如,武器更快地與負面概念相關聯。
IAT也可以用來揭示人們對社會或人口群體的無意識協會。例如,某些IAT在項目隱式網站發現人們更有可能自動將武器與黑人美國人和無害的物體與白人美國人聯繫起來。
研究人員說,關於這些結果意味著什麼的辯論。人們之所吸收他們的語言從統計學上講,這更有可能與少數民族,老年人和其他邊緣化群體密切結合使用負面詞?
數字刻板印象
Caliskan和她的同事開發了用於計算機的IAT,它們將其稱為WEAT,用於單詞插件協會測試。該測試測量了手套表示的單詞之間的關聯強度,就像IAT測量的強度一樣人腦中的單詞關聯。
對於測試的每個關聯和刻板印象,Weat返回了與IAT相同的結果。機器學習工具再現了鮮花與愉快的單詞之間的人類關聯。昆蟲和不愉快的單詞;樂器和愉快的話;還有武器和不愉快的話。在一個更令人不安的發現中,歐洲裔美國人的名字比非裔美國人的名字更愉快。它還更容易將男性名字與職業單詞相關聯,而女性名字則更容易用家庭單詞。男人與數學和科學以及與藝術的女性更加緊密相關。與老年人相關的名字比與年輕人相關的名字更令人不愉快。
卡利斯斯坎說:“我們很驚訝我們能夠複製過去數百萬次執行的每一個IAT。”
研究人員使用第二種方法,發現機器學習工具能夠從其語義關聯中準確地代表有關世界的事實。將手套的單詞插入結果與真正的美國勞工統計局有關職業中婦女百分比的數據進行比較,Caliskan發現,在這些職業中,手套將手套視為“女性”的職業之間存在90%的相關性。
換句話說,從人類語言學習的程序卡利斯斯坎說,儘管這種文化(例如刻板印象和偏見)是有問題的。人工智能也很難理解人類容易掌握的背景。例如,關於馬丁·路德·金(Martin Luther King Jr.)因在阿拉巴馬州伯明翰舉行的民權抗議而入獄的一篇文章可能會將許多負面詞與非裔美國人聯繫起來。一個人會合理地將故事解釋為美國英雄的正義抗議之一。一台計算機將在其“黑色=監獄”類別中添加另一個計數。
卡利斯斯康說,保持準確性的同時獲得AI工具以了解公平是一個巨大的挑戰。 [人工智能的簡短歷史這是給出的
她說:“我們認為消除偏見不一定會解決這些問題,因為這可能會破壞世界的準確代表。”
公正的AI
這項新研究於今天(4月12日)在線發布雜誌科學哈弗福德學院的計算機科學家索雷爾·弗里德勒(Sorelle Friedler)說,這並不奇怪。她說,這很重要。
弗里德勒告訴Live Science:“這是使用許多系統建立的標準基礎方法。”換句話說,偏見可能會滲透到任何使用手套或從人類語言中學習的AI。
弗里德勒(Friedler)參與了一個新興的研究領域機器學習的公平,問責制和透明度。她說,沒有簡單的方法可以解決這些問題。她說,在某些情況下,程序員可能能夠明確地告訴系統自動忽略特定的刻板印象。在任何涉及細微差別的情況下,可能需要循環介紹人類以確保機器不運行AMOK。 Caliskan說,這些解決方案可能會有所不同,具體取決於AI的設計,它們是用於搜索應用程序,進行決策還是其他事情?
在人類中,隱性態度實際上與對社會群體的明確態度並不密切相關。心理學家爭論為什麼這是:人們是否只是對自己的偏見保持媽媽以避免污名?做IAT實際上不能測量偏見那好嗎?但是,似乎人們至少有能力以對與錯的方式進行推理,並有偏見的協會。她和她的同事認為,人類將需要參與其中 - 編程代碼需要透明 - 以便人們可以對機器的公平做出價值的判斷。
卡利斯康說:“在有偏見的情況下,我們知道如何做出正確的決定,但不幸的是,機器並不是自我意識。”
原始文章現場科學。