您是否感到內疚,並在發給親人的訊息中承認了這一點?注意:此文本可以透過此檢測到人工智慧,由以色列內蓋夫本古里安大學的研究人員開發。 Yair Neuman 和 Yochai Cohen 在期刊上的一篇文章中介紹了這個新系統科學報告去年五月。他們解釋說,他們已經創建了一種能夠自動檢測“違反社會規範」。令人驚訝或令人擔憂的一點,取決於你的觀點:它們是由 DARPA 資助的(用於“國防高級研究計劃局),一個機構五角大廈,揭示了耶路撒冷郵報,7月23日。
這是關於什麼的?這些研究人員在科學期刊的專欄中指出,世界上有多少文化就有多少社會規範。社會規範通常是非正式的規則,它將定義社會中集體內甚麼是可以接受的,什麼是不可以接受的。雖然我們可以找到共同的規則——例如,殺人或醉酒骯髒地去辦公室構成對大多數人和文化的社會規範的違反——但它們往往因國家或背景而異。在世界某個地區令人不悅或不可接受的事情在另一個地區不一定如此。研究人員在文章中寫道,裸體海灘上的裸體通常是可以容忍的,但在公共場合是被禁止的。
檢測羞恥、尷尬或遺憾
然而,後者並沒有對社會規範進行廣泛的調查。他們以不同的方式提出了這個問題。研究人員認為,分析簡訊(簡訊、電子郵件)所產生的情緒(這對所有文化來說都是常見的)就足以確定是否違反了社會規範。 “例如,當人們感到羞恥、尷尬或遺憾時,他們被認為認識到違反了社會規範», 寫下作者。
他們研究的核心是教導人工智慧識別這些情緒,考慮變量,以及表明規範已被違反的可測量特徵。人工智慧(這裡GPT-3),面對書面文本,首先會在研究人員定義的十個類別中確定它是哪種社會規範,例如能力、禮貌、自信、紀律、仁慈、禮貌、成功、從眾、正派和忠誠。
這項研究將用於什麼目的以及五角大廈正在尋找什麼?
然後他們問他這些文字看起來是正面的還是負面的。換句話說,語言模型學會了確定是否有內疚或羞恥。如果是正面的,那就違反了社會規範。然後該系統在兩組大量的短文本上進行了測試。研究人員表示,這是成功的。 “這是初步工作,但它證明我們的方法是正確的,並且可以擴展到更多的社會規範»,Neuman 教授解釋道,他是 Functor 實驗室認知和腦科學領域兩位研究人員之一。
什麼 ”透過建立簡單的、有理論基礎的模型來成功對違反規範的行為進行分類,從而彌合社會科學和數據科學之間的差距»,在文章中強調作者。未來,他們希望人工智慧能夠自動分析對話歷史,尋找不當行為的跡象——同樣,根據社會規範。
這項研究將用於什麼目的?很難說。對我們的同事來說吉茲莫多,五角大廈可以創造一個人工智慧,能夠分析與美國交戰的國家的外國人的情緒。這項工作補充了與情緒分析相關的許多其他研究。與後者一樣,它們提出了許多道德問題,特別是與隱私和資料使用相關的問題。例如,如果該人工智慧對訊息進行分析,在不久的將來,相關個人是否會同意?他們會知道他們的文字正在被這個人工智慧篩選嗎?這也顯示美國國防已經將人工智慧納入其研究領域。她會用它做什麼?這就是整個問題,迄今為止尚未得到解答。我們在 Gizmodo 的同事聯繫了 DARPA,但他們沒有回應他們的請求。
來源 : 科學報告