微軟繼續做出改變到新必應。正如所承諾的,搜尋引擎現在允許您修改搜尋方式普羅米修斯,基於與 ChatGPT 相同語言模型的聊天機器人產生回應。
Bing ChatGPT 的三種不同個性
雷德蒙巨頭留下了以下選擇:三個不同的性格:創造性、平衡或精確。如果網路使用者選擇創造性人格,人工智慧將傾向於透過發明事物來開發更長的答案。如果您使用 ChatGPT 寫小說或尋找劇本或詩歌的創意,這是理想的選擇。
另一方面,精準凸顯的個性強調資訊的準確性進行了溝通。一旦啟用此模式,Prometheus 將提供簡短、真實的答案。人工智慧不會圍繞著你的問題主題來產生答案。在這種情況下,聊天機器人的創造力就完全受到微軟的限制。它非常適合在線搜索……這仍然是 Bing 存在的主要原因。
最後,最後一個個性提供快樂的媒介科學嚴謹性與創造性之間。預設情況下,微軟已將其 ChatGPT 個性設定為平衡。網路使用者必須根據自己的需求手動從一種模式切換到另一種模式。
現在,幾乎每個人(90%)都應該看到 Bing 聊天模式選擇器(三鍵開關)。我絕對更喜歡“創意”,但“精確”也很有趣——它更加真實。看看你喜歡哪一款。仍屬於對照組的 10% 從今天起就應該開始看到了。
— 米哈伊爾‧帕拉欣 (@MParakhin)2023 年 3 月 1 日
微軟網路服務主管 Mikhail Parakhin 表示,所有三個角色現在都可用來自目前測試人員新必應的。如果您已經可以存取人工智慧驅動的搜尋引擎,您應該會看到“聊天模式切換”在介面中。
微軟繼續審查其副本
幾天前,微軟強行實施Prometheus 測試儀的使用限制。美國大廠決定授權網友不要擺姿勢每次對話只有六個問題,每天六十個問題。
這些變化是對整合到搜尋引擎中的人工智慧的驚人過度做出的反應。最近幾週,許多網路使用者註意到聊天機器人以非理性的方式表現得完美,在最輕微的煩惱時發出威脅或侮辱。
微軟所做的改變旨在避免這些溢出。事實上,拖延的對話可能會導致人工智慧脫軌。同樣,通常需要一定創造力的交流才能激發模仿人類情感的反應。
大多數測試人員對微軟最近的遏制措施反應不佳。為了避免出現偏差,編輯器造成了一系列錯誤。根據一些證詞,ChatGPT經常拒絕回答問題網路使用者。根據米哈伊爾·帕拉欣的說法,“Bing 無緣無故拒絕回應的案例”透過更新顯著減少。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇