隨著AI代理商的到來,企業正在考慮日益增長的未來機會。其中之一是授予我們可驗證的證書(VC)代表我們採取行動的訪問權限 - 無論是預訂前往墨西哥的假日旅行,通過Google提交稅收報告,還是對Robinhood進行股票交易。
但是,在AI代理商獲得通過在線服務管理我們日常任務的可能性之前,技術人員將不得不回答一些困難的問題。其中包括我們如何信任AI代理商在與系統,合作夥伴和其他代理進行互動時準確地表示有關我們的信息。
“與這些代理商的可驗證憑證之間的互動確實很有價值,”產品經理Diana Jouard說。她補充說,服務提供商將能夠依靠這些密碼安全和可驗證的索賠,而不是昂貴的集成和審查過程。
喬爾德(Jouard)在網絡研討會上講話,探討了本週由美國身份管理公司組織的AI代理與數字身份的交集
在身份行業中,AI代理商的主題已受到關注。自主系統通常是作為旨在自動化任務並實現複雜目標的軟件工具。專家認為他們可以成為未來甚至幫助生物識別驗證。
商業諮詢公司高級企業安全建築師彼得·克萊(Peter Clay)說:“從中有很多破壞。”PA諮詢。
但是,與任何新技術一樣,公司將必須決定如何與可驗證的憑證和身份有關。粘土補充說,企業必須牢記確保數據安全,驗證身份並應用零信託原則的“良好老式”規則。
他說:“你不能把頭貼在沙灘上,而忽略這些東西。” “即將到來,它將改變組織的運作方式 - 希望變得更好。
AI代理也可能帶來意外的風險。美國伊利諾伊州Devry University的首席信息安全官(CISO)解釋說,給AI代理人的權力超出了他們的意圖,或者允許他們根據錯誤的數據做出決定可能會使他們的意圖脫軌。
使用AI代理將需要不同的方法來接近訪問控件,包括定義將允許執行哪些任務以及可以訪問的數據。組織將需要建立圍繞誰可以提供代理數據並添加到其知識庫的適當控制,誰可以在陳舊時修改,刪除或更新信息。
隱私法規也將發揮作用:如果AI模型了解了有關用戶的所有知識,那麼刪除此信息的外觀將如何?
他說:“我不確定我們的控件是否會以技術增長的速度移動。”
位於AI代理人的核心的大型語言模型(LLM)等技術的缺點是,它們可能會容易受到社會工程攻擊的影響,並嘗試從壞演員開始嘗試分享他們不應該的信息。根據喬爾德(Jouard)的說法,AI代理商也可能“自我利益”或以某種方式構建某些公司或由於公司利益而影響其用戶的行為。
PA Consulting的粘土說:“這更加複雜。” “測試變得更加困難,而且您必須開始考慮它的發展階段要比很多人意識到。”
儘管AI代理仍處於起步階段,但許多組織都在考慮將其推出。但是,企業將不得不考慮與代理商相關的理由和用例,了解是否確實有投資回報率(ROI)以及與幫助組織相比,代理人可能造成多少摩擦。
量子計算的興起預計將在未來10年內出現,這可能意味著企業和組織引入的許多控件可能會過時。將量子計算的力量結合起來,有可能破壞某些類型的加密,以及大型語言模型(LLMS)也可能在將來帶來挑戰。
“對我來說,這是一個可怕的世界,”誇說。
文章主題
||||