Google的母公司Alphabet重新起草了其政策,以指導其使用(AI),取消承諾永遠不會以“可能造成總體傷害”的方式使用該技術。這包括武器化AI以及用於監視目的。
2018年,成千上萬的員工抗議公司決定允許五角大樓使用其算法分析軍事無人機錄像的決定。作為回應,Alphabet拒絕續簽與美國軍方的合同,並立即宣布了四條紅線,該線條誓言在使用AI時永遠不會越過。
出版一組原則,Google包括一個標題為“我們不會追求的AI應用程序”的部分,在該部分中列出了“造成或可能造成總體損害的技術”以及“主要目的或實施的武器或其他技術或直接促進的武器或其他技術對人的傷害。” AI黑名單上還提到了監視和“違反國際法和人權原則的違反國際法和人權原則的技術”。
然而,更新其原理本週早些時候,Google從指南中取消了整個部分,這意味著不再保證該公司不會使用AI來造成傷害。取而代之的是,這家技術巨頭現在對“開發和部署模型和應用程序可能會大大超過可預見的風險”,這對“開發和部署模型和應用程序”提供了模糊的承諾。”
解決政策變更博客文章Google的高級副總裁James Monyika和Google DeepMind聯合創始人Demis Hassabis寫道:“自從我們在2018年首次發布我們的AI原則以來,該技術已經迅速發展,從邊緣研究主題到日常生活的普遍元素。
兩人援引“在日益複雜的地緣政治環境中為AI領導力進行的全球競爭”,他說:“民主國家應以自由,平等和對人權尊重等核心價值觀為指導。”他們現在為AI設想的申請中,有加強國家安全的申請 - 因此,以前的保證不使用AI作為武器。
考慮到這一點,Google說,現在努力利用該技術“幫助應對人類的最大挑戰”,並促進“積極利用AI”的方式,而沒有確切說明這是什麼作用,更重要的是- 更重要的是- 不需要。
沒有對公司將不會參與哪些活動的任何具體陳述,那麼,兩人說,Google的AI使用將“與廣泛接受的國際法和人權原則保持一致”,並且他們將“共同努力創建可以保護人民,促進全球增長並支持國家安全的人工智能。”