機器學習有著光明的未來,每週都會有專家向我們歌頌這項技術為人類帶來的好處。然而,這還遠遠不夠完美。近年來,一些值得注意的失敗事件屢見不鮮,所提出的問題也被證明難以解決。這是人工智慧領域最大失敗的選集。
微軟創建新納粹聊天機器人
2016年3月23日,微軟發表了一款名為Tay的聊天機器人。它具有 19 歲年輕人的個性,並且是為樂趣而設計的。網友們可以和她暢所欲言,無所不談。這個想法是以有趣的方式展示智慧聊天機器人的樣子。但樂趣很快就轉變了在惡夢中。
在幾個小時內,泰採取了新納粹男子氣概、希特勒和唐納德·特朗普粉絲的態度。為了什麼 ?因為演算法的學習數據除其他外,還來自 Tay 與網路使用者的對話。他們中的一些人嗅到了這個缺陷,並對機器人進行了大量的仇恨言論。十六個小時後,編輯在被嘲笑的情況下被迫斷開了永遠消失的Tay的連結。
https://twitter.com/tomwarren/status/712953856053919749
谷歌製作種族主義標籤
從一開始,影像辨識就一直是機器學習的優勢領域。應用領域之一是照片的自動分類,這簡化了照片庫的管理。
但在 2015 年,谷歌的照片應用程式涉足這一領域,將一對非裔美國夫婦比作…大猩猩。這家IT巨頭立即道歉並承諾修復問題。出版商後來是否設法改進了識別演算法?事實並非如此,正如後來透露的那樣有線。
為了解決這個問題,他簡單地刪除了「大猩猩」類別,以及「黑猩猩」或「猴子」等其他類別。可以肯定的是,從那時起,風險就消除了。但從科學的角度來看,我們不能說這是令人滿意的。但這清楚地說明了這項技術的不完善性。
IBM Watson 因癌症而崩潰
誰不記得沃森,這個快樂的矽人,在 2011 年,壓垮人類在遊戲節目中危險邊緣。事情還遠遠沒有結束。據 IBM 溝通人員稱,我們將會看到我們將要看到的情況。計算機很快就會徹底改變醫學。該機器能夠吸收大量的研究和分析,能夠以更可靠的方式製定診斷和治療。
但到了2018年,這是一個猛烈的覺醒。 IBM 內部文件揭露統計新聞顯示沃森醫師經常建議不良的癌症治療方法,甚至可能對患者造成危險。
根據華爾街日報,這個新的世界奇蹟在花費了數十億美元進行但結果可疑的項目之後,最終不會為醫學帶來多少好處。但這可能不僅僅是時間問題。無論如何,IBM 工程師仍然相信這一點。
監獄判決存在嚴重偏見
人工智慧演算法正在滲透到各個地方,包括法院。在美國,一些法官依靠 Compas 軟體來評估罪犯或罪犯的再犯風險,這可能會直接影響他們所製定的監禁刑罰。
軟體基於社會文化數據:個性、職業和社會狀況、藥物使用情況、居住地等。但一項調查普普利卡研究表明,該軟體往往會顯著高估黑人的風險,而與其他社會文化因素無關。
為了什麼 ?因為該軟體以無差別的方式「輸入」可用的社會文化數據,並且簡單地複製了其預測中的過去趨勢。這個過程是不公平的、歧視的,而且完全缺乏透明度。
視覺駭客正在倍增
多年來,研究人員一直試圖找出演算法是否容易被欺騙,或者是否可以有系統地被欺騙。答案是肯定的。
在2014年研究人員發現,肉眼無法察覺的修改可能會破壞人工智慧,並將狗與鴕鳥混淆。
在2016年,另一組研究人員進一步挑戰極限。它表明,對於每個深度神經網絡,都有可能找到一種準不可察覺的干擾,能夠以高機率破壞預測。
在2017年密西根大學的研究人員隨後設想了一種應用於現實世界的攻擊。你所需要的只是幾張黑白貼紙,並以某種方式將它們貼在「停止」標誌上,很快,自動駕駛汽車就會認為這是一個低於 45 公里/小時的限速標誌。下面是一個演示視頻,在圖像底部指示了演算法的分析。左側的“停止”標誌僅在最後一刻才被識別。
提問者世界然而,研究人員之一 Omar Fawzi 仍希望讓人放心。這些最新的攻擊僅在已知所有規範的學術神經網路上進行了測試。商業神經網路的情況並非如此。然而,我們也知道,透過默默無聞來實現安全從來都不是一個好的解決方案。
彌補這些缺陷並不容易。“我們知道如何建立非常強大的神經網絡,但我們不知道它為何有效以及其局限性是什麼””,科學家解釋道。可以肯定的是,駭客攻擊人工智慧將會變得越來越重要。