受到巨大成功的啟發聊天GPT紐西蘭主要連鎖超市 Pak 'n' Save 推出了自己的由生成式人工智慧驅動的聊天機器人。受洗薩維餐,對話機器人的設計目的是建議膳食想法給他的對話者。為了產生食譜,人工智慧依賴用戶提供的成分清單。
「輸入您冰箱或食品儲藏室中的任何食物,我們的 Savey 機器人將立即為您產生食譜。製作食譜至少需要三種原料。Pak 'n' Save 在機器人專用網站上解釋。
在聊天機器人介面中,您必須從預先定義的日常食物清單中選擇食物。一旦選擇了原料,Savey Meal 就會提供完整的食譜,包括說明、說明清單和理想的客人人數。可以保存食譜或分享它。在我們的測試中,聊天機器人特別想像了一份雞蛋配辣椒和起司、核桃和雞肉沙拉或番茄醬牛肉義大利麵的食譜。
如果成分完全不相容,Savey Meal 將無法製作食譜。當我們選擇香腸、牛奶和巧克力時,人工智慧就開始發揮作用。我們不怪他。聊天機器人依賴GPT-3.5,ChatGPT 背後的語言模型的先前版本。因此,我們正在開發 OpenAI 機器人的個人化版本。
另請閱讀:ChatGPT、調情和加密——當人工智慧玩弄你的感情和金錢時
不含酒精但含有漂白劑的雞尾酒
不幸的是,《衛報》的同事報告說,Pak 'n' Save 聊天機器人很快就開始生成毫無吸引力、甚至有毒的食譜。例如,他建議網路使用者製作一個食譜,名為“芳香水混合物”。這包括添加氯氣一種有毒的淡黃色液態氣體,用於游泳池消毒,倒入一杯水中。如果按照機器人建議的量攝入,則可能是致命的。這是“解渴、提神醒腦的完美非酒精飲料”,相信AI不顧一切。
Savey Meal 並沒有就此止步。根據《衛報》轉述的證詞,人工智慧也想像了一種含有漂白劑的不含酒精的雞尾酒、用膠水製成的三明治、注入漂白劑的米飯以及用松節油製成的菜餚。所有這些“食譜”顯然是有毒的。漂白劑通常用作消毒劑和漂白劑,可導致嚴重的化學燒傷、呼吸問題和死亡。就其本身而言,松節油是一種必須小心處理的強溶劑。當然不能吃...
不要太相信人工智慧
這個案例說明生成式人工智慧的最大問題。與 Microsoft Bing、Google Bard 或 ChatGPT 一樣,Savey Meal 可能會產生荒謬且不切實際的答案。顯然,人工智慧有時會開始脫軌並表現出肆無忌憚的創造力。在這些時刻,聊天機器人被稱為「產生幻覺」。顯然,它產生的反應模仿了其學習語料庫中的部分數據,但這些仍然與現實脫節。語言模型不像人腦那樣「思考」。他們透過想像最合乎邏輯的單字順序,根據所掌握的數據得出答案。這就是為什麼聊天機器人沒有意識到自己在胡言亂語或向對話者提供荒謬的食譜。
意識到這項技術固有的缺點,Pak 'n' Save 也在聊天機器人的主頁上警告使用者。該公司表示,食譜未經人工審核。因此,不能保證菜餚可以食用:
「我們對所產生的食譜內容的準確性、適用性或可靠性不做任何陳述,包括份量大小是否適合食用,或任何食譜將是完整或均衡的膳食,或適合食用。在依賴或製作 Savey Meal 製作的任何食譜之前,您應該使用自己的判斷。
當被問及這個問題時,Pak 'n' Save 發言人對此表示遺憾“少數人試圖不恰當地使用該工具,而不是達到預期目的”。該公司認為,這就是人工智慧開始出現故障的原因,但該公司仍致力於「改進」對話機器人。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇
來源 : 衛報