2月6日,國家科學基金會(NSF)網絡和信息技術研究與發展國家協調辦公室(NCO)發布了請求有關製定人工智能(AI)行動計劃的信息。公眾意見期截至3月15日,向NCO提交了8,000多個評論。儘管NCO尚未公開評論,但許多評論的各方已將其評論公開,並代表了業務,公共政策和私人利益的橫節。
儘管每個受訪者都從不同的立場開始了AI治理,但他們的共同擔憂反映了更廣泛的行業範圍,以提供清晰度,確保獲取數據,鼓勵自願標準並防止監管分裂的政策。無論背景如何,普遍的情緒是政府在促進AI創新方面發揮支持作用,而不是施加可能扼殺進展的限制性任務。
綜上所述,回答說明了AI發展的複雜而不斷發展的政策格局。總體主題包括需要監管性清晰度,平衡數據治理政策,特定於部門的監督以及國際合作,以確保AI驅動系統的安全和道德使用。
確保法律清晰度,加強隱私保護,促進創新以及解決偏見問題對於塑造AI發展和法規的未來至關重要。這些回應強調了平衡的監管方法的重要性,該方法可以在維護基本權利的同時實現技術進步。
確實,隨著NSF AI行動計劃開始成立,決策者將不得不在培養創新,保護隱私,確保安全和維持全球競爭力之間達到平衡。 AI的未來將由這些監管討論如何展開,從而影響從合規要求到數字身份驗證和身份驗證系統的技術進步的所有事物。
出現的一個重大問題是監管清晰度和國家標準的需求。許多受訪者強調,對AI法規的分散方法,尤其是在州一級,可能會一直構成合規性挑戰。統一聯邦框架的呼籲與生物識別認證和隱私問題特別相關,這些問題通常需要在不同司法管轄區和行業之間進行互操作。
例如,全國州立法機關會議表示:“強烈認為政府間合作對於製定強大的AI行動計劃至關重要,以確保這項新技術被用於增強美國的領導力和支持和推動我們的公民,企業和社區。”
該業務圓桌會議表示,特朗普政府必須“與行業合作制定自願,協調,靈活的AI開發和部署標準,並建立在多方利益相關者場地中廣泛採用的現有標準的基礎上。AI標準是通過政府,工業,公民社會,學術界,學術界和國際黨之間的緊密合作而開發的,是最有效的。”
它鼓勵使用國家標準技術研究所(NIST),說“這是通過強大的公私伙伴關係制定的強烈現有風險管理指導的一個例子。”
企業圓桌會議說:“在涵蓋AI系統的新規則或現有規則中,應將監管護欄被認為是必要的,決策者應為企業提供明確的指導,促進我們的創新,並基於風險的方法,以仔細考慮並認識到仔細的疾病,以避免有較低的信息,以避免使用較低的危險和常規範圍。此外,隨著人工智能產品,用例和市場的發展,AI治理和監管應發展。”
The American National Standards Institute (ANSI) said that in order “to balance opportunities and risks in AI deployment, we recommend that the new AI Action Plan prioritize private-sector-led standardization efforts that involve the participation of all affected stakeholders, including government. These efforts include developing and deploying technical and safety standards and related conformity assessment solutions that address key areas: AI risk hierarchies, acceptable risks, and tradeoffs; data quality,出處和治理;
Ansi說:“在適當的情況下,公私合作夥伴關係可以加快新的AI應用程序和系統的部署。”
Openai類似地促進了一種“確保創新自由的監管策略”,他說:“為了創新真正創造新的自由,美國的建築商,開發商和企業家(我們國家最大的競爭優勢)必須首先具有創新的自由。我們提出了一個旨在實現聯邦政府和私人私人黨派自願合作夥伴的善良方法。”
斯坦福大學斯坦福大學以人工智能和斯坦福大學研究中心的基礎模型研究中心也主張開放創新,並說:“開放創新是美國AI生態系統的基石,加劇了協作,競爭和快速的實驗。從創業公司到技術公司和學術機構,各種各樣的研究人員都以共同的進步,推動更快的突破和更大的技術彈性為基礎。”
Technet是技術首席執行官和高級管理人員的兩黨網絡,該網絡通過提倡在聯邦和州一級的有針對性的政策議程來促進創新經濟的增長。
該組織說:“任何AI法規都應集中於緩解已知或合理可預見的風險,並在整個AI價值鏈中適當地指定責任和責任。”
Technet進一步表示,技術標準應基於行業框架和最佳實踐。它在回應中說:“為了促進創新並適應技術變化,我們鼓勵使用行業框架和基於證據的監管工具,例如安全港口,使行業可以測試和共享最佳實踐。”
計算機與通信行業協會(CCIA)指出,全國各地的州立法機關目前正在製定各種與AI相關的立法,並且“儘管在某些地區可能存在獨特的當地問題,但AI政策的絕大多數政策將通過一項統一的國家政策來提供明確的確定AI價值鏈中各種參與者的責任。”
CCIA認為,“一般而言,聯邦立法應搶占有關Frontier AI模型發展和部署的州法律”,“這種先發製人應在這些領域中完全搶占州法律,以確保統一的聯邦方法。”但是,這種方法確保了一致性並促進了對跨多個州開展業務的企業的遵守,從而防止了可能損害消費者,阻礙創新並為行業增長造成不必要的障礙的零散的監管格局。”
CCIA說:“雖然通常更可取搶先優勢,但各州仍將發揮作用。” “特別是,州立法機關非常適合解決特定的差距或獨特的當地問題,而聯邦法規可能無法充分涵蓋這些差距。
CCIA補充說:“聯邦機構應澄清現有法律對AI的應用,並指出,只有在人工智能係統中存在的風險或危害,而不是人類或非AI軟件中不存在的情況。”
AI所提出的災難性風險對公共安全和國家安全的災難性風險進行了詳細討論,他說:“一旦AI系統在廣泛的任務中具有很高的能力,即使在美國的大量工作不需要的工作中,也要為AI工作負載提供高度安全的選項,這將非常重要。”
METR補充說:“先進的AI系統是外部對手,間諜或流氓員工盜竊和濫用盜竊和濫用的寶貴目標。此外,可能無法在沒有實質性的安全性和內部控制的情況下安全測試或部署AI系統。例如,對於確保對核武器的使用量很重要的AI對於核心武器的使用量很重要。
文章主題
|||||||