面對艱難的選擇,我們可能很快就會向Google人工智慧尋求建議,該公司正在開發其人工智慧工具的生活教練版本。但面臨道德和法律風險,該系統不應該很快就會向公眾開放。
你是否應該接受這份工作,放棄一切,開始職業轉變,離開你的伴侶到別處開始新的生活?面對艱難的選擇,我們可能很快就會有新的反應:尋求建議人工智慧(人工智慧).這就是我們正在努力的方向深度思維,Alphabet 的 AI 分支。母公司為Google已經在一個版本上工作了幾個月“生活教練» 其人工智慧工具。後者可能能夠像心理學家或親密的朋友一樣回答有關用戶生活的特別私密和個人的問題。
根據紐約時報與 DeepMind 簽訂合約的 Scale AI 公司的約 100 名研究人員將測試該專案以及其他 20 項任務。我們的同事舉了一個例子,一位網路使用者必須向他最好的朋友之一宣布,他將無法參加他的婚禮,因為他無法支付到達慶祝活動地點的機票。然後,人工智慧會建議以不同的方式呈現這個壞消息,以便更好地接受。
道德和法律風險
除了回答某些個人問題的能力之外,這個生活教練版本還包括從預算到運動訓練計劃等其他功能。
這些可能性讓一些研究人員感到擔憂,他們指出,除了使用者某些反應的危險性之外,使用者思維還可能失去自主權。聊天機器人,容易產生幻覺。這些工具確實可以給出非常令人信服的答案,但同時卻是完全錯誤的,甚至是有害的。
幾個月前,一個支持飲食失調受害者的美國非政府組織不得不撤回其名為 Tessa 的對話機器人。這個系統給出了不適當的飲食建議,甚至對提出質疑的人的健康有害。去年 12 月,谷歌內部的專家也警告稱,此類工具會為用戶的福祉帶來許多風險。我們的同事報告說,網路使用者尤其可能會對聊天機器人投入過多的感情。紐約時報。
我們如何確保建議的保密性和品質?
考慮到人工智慧的競爭,這項正在開發中的新功能並不令人意外,它必須克服幾個挑戰:首先,如何確保您為尋求建議而提供的所有個人元素不會最終出現在公共廣場或其他談話中?詩人谷歌的生成人工智慧工具目前建議其用戶不要洩漏個人資訊。
那麼,如何才能保證AI給的建議是好建議呢? Christian Guttmann,Pegasystems 的人工智慧專家監護人,例如建議建立一個“建立人類和人工智慧系統之間關係的負責任的方法。目標是「確保向某人提供的建議是安全、合理的,並且與專業人士的建議一致»,他向我們的同事報告。
從通用工具到個人化工具
另一個重大挑戰:從技術上講,建立這樣一個系統將特別複雜,強調財富。到目前為止,Bard 與 ChatGPT 一樣,能夠以維基百科的風格對大量主題給出一般性答案。但創造獨特的、個人化的互動將特別困難。能夠給予“生活建議”,這些工具除了能夠提供相關且符合道德的回應之外,還應適應每個人的情況。
出於所有這些原因,Google不會部署此類工具。它可能僅限於某些特定功能(例如製定預算),而不是提供更雄心勃勃的生活指導工具。根據紐約時報目前,谷歌尚未決定其發布策略。如果這個工具真的最終投放市場,這將構成這家數位巨頭方法的改變。山景公司實際上建議巴德用戶不要請求“醫療、法律、財務或其他專業建議»。
被質疑的是紐約時報,DeepMind 則堅持其目前對該專案的評估流程,並宣稱這是一個“開發安全有用技術的重要一步»。
來源 : 紐約時報