越來越多的公司禁止員工在工作場所使用人工智慧。這是蘋果公司的案例要求員工不要向聊天機器人尋求幫助,三星甚至威脅要解僱違反規定的員工。兩家廠商擔心的是機密資訊提供給聊天機器人,例如聊天GPT、Google Bard 或 Bing Chat 會自動被語言模型吸收。這些有價值的數據最終可能會落入競爭對手或惡意實體手中。
另請閱讀:為什麼谷歌推遲巴德在歐洲的到來
谷歌擔心巴德
人工智慧競賽中的公司之一谷歌也有類似的擔憂。路透社採訪的消息人士透露,這家搜尋巨頭最近警告其員工關於對話機器人。該公司明確要求員工不要向人工智慧提供機密資訊……即使是它自己的聊天機器人巴德。在 6 月 1 日發布的備忘錄中,谷歌明確建議其員工不要將機密託付給人工智慧:
“請勿在與巴德的對話中包含機密或敏感資訊”。
該小組特別要求它的開發商不使用巴德產生的電腦程式碼 路透社質疑,谷歌認為聊天機器人可以“提出不需要的程式碼建議”。然而,該公司毫不猶豫地將其人工智慧展示為編碼嚮導下列的最後更新。谷歌指出,儘管巴德在編寫程式碼方面有缺陷,但它仍然是開發人員的好助手。此外,Bard 仍可用於分析現有程式碼並發現錯誤。
與 ChatGPT 或 Bing Chat 一樣,Bard 可能會吸收對話者提供的數據。這些資訊可能很敏感,然後儲存在大量資料中,這些資料為 Bard 背後的語言模型提供支持,帕LM 2。一旦被攝入,數據可以理論上在談話中就會出來與另一個用戶。正如Google執行長桑達爾·皮查伊(Sundar Pichai)去年四月所解釋的那樣,人工智慧模型仍然存在“一個黑盒子”,其功能仍模糊。
請注意,巴德出口上游已經實施了類似的限制。事實上,第一批內部測試人員被邀請謹慎行事在他們與人工智慧的對話中。谷歌向路透社解釋說,透過警告員工,谷歌只是為了遵守其資訊保護的慣常政策,該政策早在巴德到來之前就已生效。
與Google、三星或蘋果不同,許多專業人士使用 ChatGPT 等生成式人工智慧,而不用擔心保密風險。根據專業社交網路 Fishbowl 的一項研究,43% 的人在沒有通知上級的情況下使用聊天機器人。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 路透社