2025年1月,唐納德·特朗普總統發布了行政命令(EO)14179,消除美國在人工智能領導的障礙。它標誌著美國人工智能政策的大幅度轉變,重點是消除政府在AI發展中所說的“意識形態偏見”和“工程社會議程”。
結果,美國國家標準技術研究所(NIST)的回應是指示與美國人工智能安全研究所(AISI)合作的科學家,以刪除所有關於“ AI安全”,“負責人AI”和“ AI公平”的參考。拜登(Biden)對AI的行政命令於2023年在商務部下建立了AISI,以製定所謂的“值得信賴” AI的測試,評估和準則。
NIST的指令是3月初分發的AISI聯盟成員的更新合作研究與發展協議的一部分。 NIST協議的先前版本強烈鼓勵研究人員貢獻旨在識別和解決AI模型中的歧視性行為的技術工作,尤其是與性別,種族,年齡和經濟不平等有關的技術工作 - 所有偏見都會通過不成比例地影響少數群體和經濟上的弱勢群體來極大地影響最終用戶。
但是,這種戲劇性的轉變與特朗普政府強調減少AI模型中的意識形態偏見相吻合。目的是通過促進AI創新可以在沒有監管限制的環境中蓬勃發展的環境來增強美國的經濟競爭力和國家安全,而政府將其視為不必要的障礙。特朗普的EO撤銷了拜登政府的AI政策,該政府強調了AI的安全性,公平性和緩解歧視性行為。
新的EO下令對所有現有的AI相關政策進行全面審查,以識別和刪除被視為創新障礙的政策。它還建立了一個180天的時間表,以製定一項戰略計劃,以確保美國在AI中的領導,並由白宮主要官員的監督,包括新任命的AI和Crypto新任命的特別顧問David Sacks。
生物識別更新較早特朗普選擇的麻袋是“ AI Czar”,這表明政府打算朝著減少AI的監管,這是特朗普所倡導的,因為共和黨控制的國會議員。
麻袋的選擇引發了科技界和決策者的混合反應。批評者對他偏愛有限的監督,潛在的行業偏見以及與他的私營部門活動相關的利益衝突以及他的“特別政府僱員”身份的關注引起了人們的關注,從而將他免除了標準確認程序和參議院確認的官員所需的全面財務披露。批評家認為,缺乏透明度的風險破壞了公眾信任,並可以使他能夠促進與他的專業利益保持一致的政策,而無需足夠的責任。
特朗普的EO在技術界引發了強烈的反應。儘管有些人稱讚這一舉動是防止對AI研究的出於政治動機的約束的必要步驟,但其他人則批評這一行動是危險地放棄道德和安全考慮因素。
最聲音的批評家之一是梅塔(Meta)的首席AI科學家Yann Lecun。林肯譴責該政策是“學術界的巫婆狩獵”。他將政府的行動與冷戰時代的紅色恐慌進行了比較,警告他們可以驅使美國科學家在國外尋求研究機會。林肯(Lecun)和其他行業領導人認為,過度專注於消除感知的意識形態偏見可能會無意中導致歧視性或不安全AI系統擴散的放鬆管制AI景觀。
特朗普的EO的含義廣泛。一方面,白宮的方法可以通過減少監管障礙,可能使美國公司比全球競爭對手具有優勢來加速美國的AI開發,但另一方面,通過剝奪安全性和道德準則,AI系統將變得更加傾向於歧視性或無意義的後果。反向歧視。
白宮政策轉變還使美國與其他全球大國,尤其是歐洲聯盟的不同道路,該國正在實施嚴格的AI法規,強調透明度,問責制和公平。這種監管不匹配幾乎可以肯定會對在國際運營的美國公司面臨挑戰,因為它們可能被迫遵守不同的標準。
在國內,聯邦政府對AI法規的監督減少已經導致各個州實施自己的AI法律,從而構成了笨拙的拼湊而成的監管景觀。現在,企業面臨挑戰,即在不同司法管轄區之間導航不一致的規則,這只會使AI的開發和部署變得複雜。
此外,政府對AI政策的單方面立場很可能會阻礙國際建立共同安全和道德標準的努力,從而有可能減少美國在全球範圍內塑造AI治理的未來的影響。
同時,削減AISI的潛在資金正在引起技術領域的擔憂,許多人擔心特朗普的努力降低了聯邦政府的規模,可能會危及發展負責人的AI的努力。據報導,NIST的試用員工正在為即將終止的終止。人們擔心AISI與Nist的《美國籌碼計劃》的工作人員一起被故意拆除。
據報導,NIST準備裁員497名員工,其中包括74名博士後研究人員,57%的籌碼員工負責激勵計劃,其中67%的人專注於研究和發展。這些潛在的失業加劇了長期以來的懷疑,即在特朗普的政府領導下,艾西最終可能面臨封閉。
“感覺幾乎就像一匹特洛伊木馬。就像那匹馬的外觀很漂亮。這是很大的,這是我們希望美國成為AI領導者的信息,但是內部的實際行動是拆除聯邦責任和聯邦資金以支持這一任務,”密歇根大學的機器人,電氣工程和計算機科學教授Jason Corso告訴山。
NIST的未來仍然不確定。同時,AISI本月初失去了董事,其工作人員被排除在最近在巴黎舉行的AI峰會之外。特朗普尚未提名NIS的新董事,但在商務部長霍華德·盧特尼克(Howard Lutnick)正式負責的情況下,預計該部門的各個機構會進一步改變。
儘管特朗普的行政命令試圖通過優先於監管限制來將美國定位為AI中的主要力量,但它們也引起了人們對這種方法的長期影響的重大關注。技術進步與道德責任之間的平衡仍然是一個關鍵的辯論,批評家警告說,缺乏護欄可能會導致AI系統加劇偏見,缺乏責任感和造成不可預見的社會風險。
特朗普破壞AI政策的穩定性加強了我們的AI領導層還是導致不可預見的後果還有待觀察,無疑為在AI社區的持續爭議和辯論奠定了基礎。
文章主題
|||||||||