多年來,研究人員和舉報人一直對女性的性別歧視感到震驚。演算法。而到了 2023 年,似乎一切都沒有改變。然而,這不是一個小問題。人工智慧系統中常見的性別偏見和成見對女性的日常生活產生影響,包括:歧視安全和合規問題私生活。在許多領域,女性受到的保護或優惠程度都低於男性,例如安全帶和安全氣囊只是為了保護男性身體而設計的。在數位世界中,我們也發現了同樣的歧視,有時甚至更嚴重。
要理解這一點,我們必須回到第一個公開的性別歧視演算法案例。根據報道,2014 年,亞馬遜測試了一種新的人工智慧系統,該系統旨在讓招募員工變得更容易路透社2018 年。問題:軟體系統性地排除了女性。這家電子商務巨頭首先嘗試透過修改設定來糾正這種情況,但沒有成功。該組織最終在 2017 年停止使用它。
演算法提供了更刻板的現實版本
為什麼這個軟體不喜歡女性?因為IA,為了他的訓練,依賴數據。問題在於,自 2000 年代以來存在的大部分數據都偏向男性。例如,如果我們向人工智慧提供來自Google新聞的數據,它自然會將男性與領導角色聯繫起來,將女性與助理或家庭主婦聯繫起來。因為 ”演算法不僅能再現現實,而且「過度打字”現實。也就是說,根據他們已有的數據,他們提供了一個更刻板的版本»,日內瓦大學電腦科學家兼教授 Isabelle Collet 在接受採訪時解釋道海蒂新聞。
另請閱讀: 人工智慧對 LGBT 族群構成風險?
另一個問題:創建這些人工智慧系統的團隊主要是男性。根據世界經濟論壇的數據,只有 22% 的人工智慧和數據科學專業人員是女性。金子, ”與所有技術一樣,人工智慧反映了其創造者的價值觀»,紐約大學人工智慧新研究所聯合主任 Kate Crawford 在接受我們的同事採訪時強調道歐洲新聞報。這並不是說程式設計師都是有男子氣概的人。但是,如果您從事人工識別軟體的工作,您將在自己身上進行測試:如果您和您的團隊主要是白人男性,那麼它對於這些個人資料尤其有效,而對於深色皮膚的女性則可能不太有效。
更多混合的開發人員團隊、技術解決方案…
訪談者迴聲報,3 月 7 日星期二,Mathilde Saliou,作者科技女性主義:數位科技如何加劇不平等,回憶道“演算法是人類建構的工具,因此是一種充滿錯誤和偏見(性別歧視、種族主義等)的工具,無論設計它的人多麼聰明。然而,在開發人員中,學習過編碼或工程的男性比例過高。他們的社會同質性意味著他們有同樣的健忘,有同樣的盲點»。
如何糾正這種情況?除了解決方案技術誰能糾正這些偏見,這些偏見不僅涉及性別歧視,首先需要學會辨識偏見,包括那些我們不知道的。這是一項涉及程式設計師和使用者雙方的工作。。
在使用AI時,也應該了解它是如何運作的,問問自己所使用的數據來自哪裡,而不是僅從表面上接受其建議——這並不總是那麼容易,特別是因為人工智慧的功能通常不透明。最後,奧德·伯恩海姆(Aude Bernheim)和弗洛拉·文森特(Flora Vincent)在他們的書中解釋說,在開發人員中建立更多混合團隊將能夠代表男性和女性的觀點人工智慧,離不開它們。整個計劃實施得太慢了。
來源 : 迴聲報