最近的批評針對的是三個人工智慧驅動的科技巨頭Google和微軟以及 Perplexity 都在宣揚毫無爭議的錯誤且嚴重失信的種族科學。
不幸的是,他們的訊息放大了一個黑暗的故事:根據該領域專家的警告,白人遺傳資源被認為具有優越性。
種族科學的興起
有線赫爾曼索(Patrik Hermansso)發現,英國反種族主義組織「希望而非仇恨」(Hope Not Hate)的研究員帕特里克·赫爾曼索(Patrik Hermansso)正在進行他的調查,測試了一個晦澀的數據集,聲稱智商分數證明了對白人至上的支持。
赫爾曼森決定測試人類多樣性基金會,他發現該基金會是由美國億萬富翁科技大亨安德魯康魯 (Andrew Conru) 資助的,他也是成人交友中心的聯合創始人。
該組織成立於 2022 年,被視為先鋒基金的延續,該基金由納粹辯護者於 1937 年成立,旨在促進「種族進步」。
令人不寒而慄的網路搜索
在研究過程中,赫爾曼森用谷歌搜尋了各個國家的智商分數。他驚訝地發現他的計算機預設為啟用的功能我列出了巴基斯坦、塞拉利昂和肯亞等國家的所謂實際智商分數。
例如,他在巴基斯坦的智商分數高得驚人,而且具體的智商分數直接取自理查德·林恩(Richard Lynn)名譽掃地的工作。林恩 (Lynn) 曾任阿爾斯特大學教授、先鋒基金會主席,他定義了種族科學運動,直至 2023 年去世。
人工智慧認可的有缺陷的研究
人工智慧搜尋引擎傳播林恩有爭議的研究的影響非常令人不安。
專家表示,這可能會產生讓人變得激進的效果。林恩的作品被許多白人至上主義者和極右派仇恨分子利用和利用只要為他們的意識形態辯護。
最近,2022 年布法羅大規模槍擊案兇手引用了林恩的研究,提出了這些敘述在現實世界中的危險。
人工智慧工具也有缺點
幾個月前,谷歌推出了人工智慧概述來回答用戶的疑問,但遭到了許多批評。當赫爾曼森詢問國民智商時,人工智慧並沒有找出有問題的答案來源。
在收到有關此問題的投訴後,谷歌承認了其不足之處,並承諾將改進該工具。
谷歌發言人內德·阿德里安斯(Ned Adriance) 告訴《連線》雜誌:「我們制定了防護措施和政策來防止低品質的回复,當我們發現與我們政策不符的概述時,我們會迅速採取行動。
其他人工智慧平台也難辭其咎
根據《連線》的調查結果,微軟的 Copilot 和 Perplexity 在被要求提供智商分數時也重複了林恩的錯誤數字。 Bing 甚至重複了虛假來源關於巴基斯坦平均智商的虛假說法,而 Perplexity 則直接引用了 Lynn 的研究成果。這些結果表明,失信的傳播種族科學不局限於給定的平台。
需要更好的監管
倫敦布魯內爾大學文化與進化中心主任盧瑟福和麗貝卡·西爾是各自領域的專家,他們表示,科學界需要更好的監督和問責。
原因在於,林恩的有缺陷的研究長期以來一直被學術界在沒有適當審查的情況下拋出。因此,這種醜陋的敘述不僅滲透到學術論述中,也滲透到人工智慧系統中。
盧瑟福認為問題不在於人工智慧,而在於學術界。他繼續警告說,除非提出正確的問題,否則人類和人工智慧都會讓虛假資訊「漏掉」。