每當一項新的革命性技術出現時,道德和法律問題很快就會出現:它的使用限制是什麼?如何保證不會對使用者造成不良後果?如果出現問題誰負責?
人工智慧也不例外。考慮到這項技術(尤其是機器學習的變體)對我們日常生活日益增長的影響,道德問題就顯得尤為重要。人工智慧演算法決定我們在網路上看到的內容,評估我們的信譽,副駕駛我們的飛機和汽車,建議我們購買的產品,幫助醫生檢測我們的疾病並開藥,可以在家中或其他地方識別我們的聲音和麵孔, ETC。
自動駕駛汽車的棘手問題
但為專案創建道德框架並不那麼容易。僅僅實現艾薩克·阿西莫夫 (Isaac Asimov) 在 1942 年設想的機器人三定律還不夠。由於我們永遠無法消除發生事故的風險,因此我們必須提前預見自動駕駛儀必須根據多種不同情況做出的艱難決定。如果事故不可避免,但最終的軌跡可以調整,那麼應該優先考慮什麼?我們是否應該拯救兩位過馬路老人的生命,即使這意味著撞牆並殺死年輕乘客?我們是否應該比男性更能保護女性的生命?是兒童的而不是老人的?富人的利益損害了窮人的利益?
和全球調查於2018年進行,並受洗《道德機器實驗》,顯示並非所有人都有相同的看待事物的方式。在個人主義社會,例如北美國家,我們寧願拯救盡可能多的人,而不管受害者的個人特徵如何。在集體主義社會,例如某些亞洲國家,我們更願意保護老年人的生命而不是年輕人的生命。在法國等拉丁國家,我們往往比男性更希望保護女性的生命。簡而言之,規則有時不僅制定起來很複雜,而且並不總是能夠使它們具有普遍性。但這並沒有阻止德國在 2017 年制定一項第一份道德指南用於開發自動駕駛和連網汽車。
然而,即使我們對必須尊重的道德框架有清晰明確的想法,我們也永遠無法避免偏見,也就是說,我們不會避免系統性錯誤,但與制定的規則相關的是非自願的。這例子在這個領域有很多。 2015年,Google圖片識別將非裔美國公民誤認為大猩猩。 2016年,微軟的一個聊天機器人突然啟動突然像個新納粹分子一樣說話。同年,ProPublica 網站透露,用於評估累犯風險的軟體 Compas 對美國黑人的案件影響很大,因此,黑人比美國白人受到了更重的刑罰。
這些偏差很難預測。就 Compas 而言,開發人員從分析數據中刪除了與種族或地理出身相關的數據,以避免此類歧視。然而,該軟體產生了嚴重的種族偏見。「由於數據之間可能存在相關性,機器學習程式可能會重新引入我們最初想要消除的偏見。 Compas 案例顯示僅刪除資料是不夠的 »IBM 法國軟體實驗室的技術專家 Rachel Orti 在 2019 年巴黎人工智慧大會上解釋道,此後成立了多個組織,將道德規範融入機器學習演算法中。其中:AI For Good Foundation、Data For Good、Fair By Design、演算法正義聯盟、演算法觀察、道德人工智慧與機器學習研究所等。
必須制定道德流程
那麼,我們要如何才能防止人工智慧犯錯,不做善事而作惡呢?不幸的是,尊重公平和非歧視並不是一門精確的科學。「沒有任何軟體庫可以讓你在軟體中實現公平性。這是必須透過應用良好實踐和建立必須準確記錄的流程來解決的問題”Facebook 人工智慧實體總監 Joaquin Quinonera Candela 在巴黎舉行的新聞發布會上解釋道。
一個好的起點是諮詢七項道德原則歐盟委員會於 2019 年 4 月頒布法令,旨在吸收自 2018 年 5 月起生效的歐洲 GDPR 法規所設定的法律約束。“自動化處理”一般來說,不能根據個人資料做出決定,例如種族出身、政治觀點、宗教信仰等。
對抗偏見需要讓不同的人參與發展項目,無論是性別、種族、社會、智力、專業出身等。「人們越多樣化,關於人工智慧軟體對人們生活的影響的問題就越多。因此,我們將能夠從設計階段考慮更多場景”IBM 法國軟體實驗室的開發人員 Mélanie Rao 強調。
偏差可能存在於機器學習系統的不同部分。如果某些群體的代表性過高或過低,用於訓練演算法的資料可能會產生偏差。資料標記時也可能產生錯誤。這是手工完成的,依賴人類的判斷,因此可能會犯錯並且存在偏見。一個典型的案例是Facebook上虛假資訊的檢測。「這很複雜,因為虛假資訊的定義因人而異。因此,有必要擁有多元化的監管者”」 華金·奎諾內拉·坎德拉 (Joaquin Quinonera Candela) 解釋道。
演算法處理標記資料並得出評估的方式也可以發現偏差(例如:錯誤訊息的機率)。以及該評估將如何產生決策(例如:這確實是錯誤訊息)。“最終,必須很好地校準預測,並且必須避免不同用戶組之間的差異”Facebook AI 總監強調。
工具和指標
好消息是,開發人員開始擁有一系列開源工具,使他們能夠檢測這些偏見。這些工具依賴機率“指標”,如果偏離正常值,就會產生警報和解決問題的途徑。 IBM 提供了名為「AI Fairness 360」的軟體,包含 70 多個指標。 Pymetrics 公司創建了“Audit AI”,這是一個用於測試大約十個指標的 Python 庫。 Google 提供了“假設工具”,讓您可以使用 5 個指標和一個“閾值變數”。就 Facebook 而言,它開發了一個名為「Fairness Flow」的內部工具,該工具不是免費提供的。
但即使有了這些工具,我們也無法避免令人不快的意外狀況。「困難在於為給定的人工智慧選擇正確的指標。這是根據具體情況進行的””,梅蘭妮·拉奧解釋道。顯然,如果我們不選擇正確的指標,我們就有可能無法發現某些隱藏的偏見。
簡而言之,正如我們所看到的,創建道德和負責任的人工智慧軟體遠非易事。這是一段充滿陷阱和陷阱的旅程。為了實現這一目標,不僅需要擁有豐富的技術專業知識,而且還需要確保尊重開放的流程,從而允許控制和監控每個開發階段。複雜的。