起初,YouTube算法將國際象棋討論視為“種族主義者”,並將其標記為懲罰,這可能令人難以置信。對於國際象棋YouTuber,他因涉嫌敏感的問題而被視頻流公司阻止。
YouTube AI可能會錯誤地將國際象棋聊天視為“種族主義者”
該事件發生在2020年6月,人們完全不知道為什麼該算法阻止了彩帶製作有關國際象棋的內容視頻。至少,它可能知道該視頻被標記為“有害”和“危險”內容。也許,如果是這樣,它在討論論壇上認識到了仇恨言論。
在一份報告中每日郵報,克羅地亞國際象棋愛好者安東尼奧·里奇(Antonio Radic)也以他的YouTube名稱“ Agadmator”而聞名,這讓他感到困惑,為什麼他被禁止在視頻共享平台中任何活動。卡內基梅隆大學(CMU)的兩名研究人員對混亂背後的奧秘有一個瘋狂的猜測。
關於此案的有趣是,YouTube甚至沒有解釋為什麼Radic的頻道立即關閉。但是,24小時後,它返回了好像什麼都沒有發生。為了解決令人難以置信的情景,一個項目科學家說,這是因為Radic對GM Hikaru Nakamura的病毒採訪發現了引發種族主義的詞。
CMU語言技術研究所的Ashique Khudabukhsh承認,他們不知道YouTube在討論中使用了哪種工具來檢測種族主義的誹謗。然而,該視頻提到“黑色”和“白色”,被認為是種族主義語言。
此外,他補充說,如果該事件襲擊了Radic之類的受歡迎的YouTuber,那麼如果AI一直對只是為了娛樂而流媒體的人,又要做同樣的事情。研究工程師Khudabukhsh和他的同伴Rupak Sarkar運行了兩個AI軟件,可以檢測仇恨言論以測試其可行性。除了測試外,他們還發現了680,000多個評論,這些評論來自五個有關國際象棋的渠道。
此外,在近700,000條評論中,進行了1,000條樣本評論的簡單隨機測試。他們發現,有82%的評論沒有解決有關仇恨言論的任何問題。但是,他們已經看到,與白人,威脅,黑色和攻擊等種族主義有關的詞可能是AI突然行動的缺失的關鍵。
AI可以通過大型樣本過濾消息的方式有不同的方法,並確保准確性也會根據示例而變化。
將過去的情況與Radic發生的情況進行比較
在一份報告中CMU新聞,Khudabukhsh以前遇到了樣本問題。他的目標是在一組照片中認出“活躍的狗”和“懶狗”。大多數具有“活躍狗”的圖片都包含狗跑的草。但是,該程序有時將那些帶有草作為“活躍狗”樣本的照片考慮,即使在某些情況下,照片中也沒有發現狗。
Radic發生的事情僅僅是它的相似之處。即使主要主題是國際象棋,培訓數據集也只有少數。結果,發生錯誤的分類。
本文歸Tech Times擁有。
由Joen Coronel撰寫