最近,企業和非營利組織揭幕了一系列舉措,展示了對人工智能的不同方法和觀點及其與生物識別技術的關係。
從慢慢覺醒到行業的道德責任和研究人員在今年的計算機願景和模式認可會議上見證的,再到東北大學的AI倫理諮詢委員會的成立,AI和生物識別技術的道德意義似乎正在得到適當的考慮。
斯坦福大學的教授說,但是,通往道德,包容性AI的道路仍然很長。幸運的是,該行業的新一代有幫助朝這個方向進行研究的工具,Mark Cuban基金會最近宣布了匹茲堡的兩個高中AI訓練營。
計算機視覺社區開始緩慢
一個分析通過以技術為中心的出版物協議表明,計算機視覺部門正在逐漸開始認真對待AI部署固有的道德含義,但需要更多的工作。
記者凱特·凱(Kate Kaye)撰寫的文章通過探索在2022年計算機視覺和模式識別期間出現的趨勢來支持這些主張會議。
例如,會議組織者創建了更新道德準則概述了計算機視覺的一些負面影響。
同時,雖然會議鼓勵研究人員在論文中包括影響評估,但它不需要他們在會議審查過程之外可查看的已發表論文中這樣做。
此外,凱伊(Kaye)的文章認為,學者們傳統上非常了解他們對現實世界的研究的影響,但是到目前為止,他們遠離公開考慮了他們發展的AI的道德和人權影響。
她寫道:“對道德考慮的不屑一顧的態度可能會阻礙業務目標,以實現飛濺的任務陳述和新聞稿中承諾的道德原則。”
凱(Kaye)認為,會議上介紹的大多數教程,講習班和論文幾乎沒有提及道德考慮,這暗示需要更多的工作來提高對該主題的認識。
東北啟動AI倫理顧問委員會
來自東北大學的人工智能內部人士創建了一個新的AI倫理諮詢委員會監督學校內部及其他地區的AI應用程序的擴展。
該小組由東北地區體驗式AI研究所的創建者兼主任Cansu Canca創立。 CANCA將看到大學內外的40多位跨學科專家。
董事會將充當與AI打交道的公司的諮詢道德問題,創建較小的小組委員會來解決特定查詢。
坎卡說:“我們可以幫助[公司]了解他們面臨的問題,並找出通過適當的知識交流解決的問題。”
斯坦福教授研究AI的包容性設計
斯坦福大學的一位教授正在AI應用程序中探索包容性設計的重要性。
斯坦福大學科學史教授隆達·希賓格(Londa Schiebinger)還是科學,健康與醫學,工程與環境的性別創新創始董事。
Schiebinger還是《包容性設計創新》教學團隊的一部分,這是斯坦福大學設計學校(D.School)提供的課程,專注於要求學生分析技術的包容性技術。
在面試在斯坦福大學以人為本的AI網站上,Schiebinger強調了通過使用交叉工具來設計設計的重要性。
她說:“如果您沒有包容性的設計,您將重申,擴大和穩固無意識的偏見。”
Schiebinger還舉例說明語音生物識別系統,以及如何人口和性別偏見影響他們。
她解釋說:“我們知道,默認女性角色的語音助手受到騷擾,並且因為他們再次強化了助手是女性的刻板印象。”
“語音助手誤解了非裔美國人的白話或說英語口音的人也面臨著巨大的挑戰。”
同時,Schiebinger說,生物識別系統的包容性設計已經有很好的例子。特別是,她引用了著名的論文”性別陰影,在其中研究人員發現,女性的臉並不像男性的臉那樣準確地被認可,而皮膚膚色較輕的人則不像皮膚較輕的人那樣容易被認為。
Schiebinger解釋說:“他們進行了交叉分析,發現沒有看到黑人婦女有35%的時間。”
“使用我所說的“交叉創新”,他們使用來自非洲和歐洲的議會議員創建了一個新的數據集,並為黑人,白人,男人和女性建立了一個出色的,更具包容性的數據庫。”
Schiebinger同意:為了具有包容性設計,研究人員和公司必須能夠操縱數據庫。
“如果您正在進行自然語言處理並使用在線找到的英語語料庫,那麼您將獲得人類在數據中的偏見。有一些數據庫可以控制和為每個人提供工作,但是對於數據庫,我們無法控制,我們需要其他工具,因此算法不會返回有偏見的結果。”
匹茲堡舉辦AI訓練營
明年秋天,賓夕法尼亞州立大學的自動駕駛供應商Argo AI和賓夕法尼亞州的準備就緒研究所將為高中生提供Mark Cuban Foundation AI Bootcamp,重點是服務不足的社區。
這些活動將對9至12年級的學生免費,並將向初學者介紹AI概念和技能。
特別是,訓練營的目的是教參與者什麼是人工智能,他們已經與AI互動的地方,AI系統的道德含義以及聰明的家庭助理和麵部識別。