美國聯邦機構正在回到基礎知識,以解決AI的根本弱點:大多數公眾對此不信任。
國家標準技術研究所 - 與凸起的海浪去年有偏見排名對於Face Biometrics軟件,已發布了一份文檔草案,旨在激發有關對系統的信任的討論。
這也不是一勞永逸的前景。根據Nist的說法,無論今天的AI有多不舒服新報告,信任“我們對技術的了解越少。”
人工智能獲得的強大越強大,人們知道它是如何工作的,他們就越會拒絕它。
違反直覺的是,NIST的報告密集並且很難理解。實際上,它使用數學描述,例如,在一個問題上 - 信任 - 似乎像愛一樣不可能的概率假設。
鑑於該機構的對話開始者是由NIST心理學家和計算機科學家(分別Brian Stanton和Ted Jensen)撰寫的,這並不奇怪。
兩人寫了導致信任和不信任的事情,他們指出的不是相反的概念。
在蘇聯的最後幾年,當時那個國家和美國正在談判一次無關的無核化,這是著名的。
在談判中,總統羅納德·裡根(Ronald Reagan)經常重複“信任但核實”一詞,以至於當時的蘇聯領導人米哈伊爾·戈爾巴喬夫(Mikhail Gorbachev)在驚訝的是,當時在聯合新聞發布會上出現了一個稱為進度進度的聯合新聞發布會。
對AI的信任還不是那麼意義,但是如果要使用算法朝著基本的社會利益方面取得進展,就不能再將其視為理所當然。