“OpenAI 的使命是確保通用人工智慧造福全人類”我們可以讀嗎在 ChatGPT 創作者的網站上。這是一個非常好的原則宣言……目前還遠遠不是事實。
一項漫長而令人不安的調查時間據透露,目前最著名的科技公司使用 Sama 公司的服務來「教導」ChatGPT 不要以有毒或暴力的方式回應用戶。 Sama 的總部位於舊金山,Google、微軟和 NASA 也是該公司的客戶。
他們其實是來自薩馬的肯亞工人,工資依照時間每小時 1.20 到 2 歐元之間,他們進行了“骯髒的工作”,這使得我們今天可以使用 ChatGPT,而不會讓機器人迷失在有毒的、種族主義的、暴力的妄想中。
接受過最糟糕的網路訓練的人工智慧“警察”
為了充分理解這些低薪工人所承受的痛苦,我們首先必須快速解釋 ChatGPT 是如何訓練的,以及 OpenAI 防止其產生有毒言論的技術。該機器人的「智慧」來自於收集和分析從網路上獲取的數十億組單字。當然,這個總和也包括人類交換產生的大量最糟糕的結果……一旦模型經過訓練,就可以在模型中找到它。
然而,OpenAI 不可能「手工」驗證這些元素,這需要數年時間。因此,我們產生了將保護機制整合到 ChatGPT 中的想法,ChatGPT 是一種由人類訓練的「警察」人工智慧,能夠限制模型產生的有毒言論。為此,必須向其「餵食」其他非常特定類型的文本:仇恨、露骨、暴力、有毒言論等。
這些是根據以下內容提取的文本時間“來自互聯網最黑暗的角落”這些被提交給薩瑪的肯亞工人進行「貼標籤」。內容很爛,描述的很詳細「兒童性虐待、獸戀、謀殺、酷刑、自殘和亂倫」。
Sama 的“貼標籤者”時間能夠接受採訪的人表示,他們每天需要為機器描述 150 到 250 篇此類段落,包括 100 到 1000 個單詞,每天工作 9 個小時。 Sama 則提到了一個較低的數字,每天大約 70 個內容。不管怎樣:這類工作的心理暴力可能會造成創傷。一位接受該雜誌採訪的員工甚至談到“酷刑» 記住必須標記,例如描述內容「一個男人在孩子在場的情況下與狗發生性關係」。
面對這項工作的難度,員工當然能夠得到薩瑪提供的心理支持。但受訪員工認為,考慮到他們面臨的內容和所需的生產力,這在很大程度上是不夠的。
合約太多了
除了標記暴力文本之外,OpenAI 還與 Sama 簽訂了另一份合同,這導致他們的合作倉促結束。 2022 年 2 月,ChatGPT 的創建者要求其服務提供者收集“性和暴力圖像» 對於他的另一個項目,「讓您的工具更安全的必要步驟」。該公司這樣做了,並收集了1,400 張圖像,其中包括明顯非法的照片,包括針對兒童的性暴力、強姦、謀殺的圖像……這一收集很快就讓非洲分公司感到擔憂,並導致了一份尚未生效的合約提前終止。
兩家公司在這個問題上互相推卸責任:Sama 表示 OpenAI 已發送“涉及某些非法類別的附加說明”合約簽訂後,他被迫撕毀合約並解僱接受合約條款的經理。 +
就 OpenAI 而言,它並不否認曾收到兒童色情圖片,但否認曾要求提供這些圖片。在發送至的新聞稿中時間,她試圖為自己辯解:“當 Sama 告訴我們他們試圖收集此類內容時,我們表示存在溝通不良,我們不想要該內容。在意識到存在通信錯誤後,我們沒有打開或查看有問題的內容。 »
人工智慧的陰暗面
這項調查提醒我們,在這些令人驚嘆的新工具背後,有一個非常黑暗的現實,必須牢記:它們要求人類觀看令人厭惡的內容,這可能會對他們的心理健康產生影響。由於執行這項任務的勞動力工資很低,而且得到的心理支持也很少,因此問題更加嚴重。當僱用他們的公司——總是非常謹慎地——價值數百億美元時,真是可惜。提醒一下,OpenAI 的估值已經達到 290 億美元。
就薩馬而言,無論如何他都決定停止這筆費用。去年她曾已經被固定時間負責監管 Meta 平台的肯亞員工的工作條件惡劣。幾天前,該公司宣布終止與馬克·祖克柏的公司的合作,以及文字產生器的標籤工作。她現在將全心投入工作中「電腦視覺資料註釋」。
因此,薩瑪退出了遊戲,但是,就像《自然》一樣,生成人工智慧市場也討厭真空。其他人將取代它,以滿足訓練這些演算法所需的小手不斷增長的需求。最終,也許道德和無偏見的人工智慧的設計可以很早就開始。透過保護那些在網路深處創造它們的人。
來源 : 時間