儘管Chatgpt在主流中長達一年的存在,但對聊天機器人誠信的擔憂仍然很普遍。在最近的調查詢問中,Meta AI成為了Chatgpt和Google的雙子座的強大競爭對手。
Meta AI是一位新助手,您可以像一個人一樣與人互動,可在WhatsApp,Messenger,Instagram上使用,並即將到來,即 通過元圖像

揭開元AI的失誤
AI建立在Meta廣泛的語言模型Llama 3上,炮製了關於一名記者的複雜敘述海峽時代。
奧斯蒙德·奇亞(Osmond Chia)獲得了一個虛構人物的細節(儘管鑑於奇亞(Chia)),但他是一名新加坡攝影師,罪名是2016年至2020年對模特的性侵犯罪名成立
聊天機器人還暗示,此案引起了重大關注並引起了憤怒,許多人將判決解釋為勝利#我也是城市國家的運動。
Meta AI還說,Chia未經同意就拍攝了受害者,將34起指控歸因於持久的法律審判,證明了受害者。
基於它的引用meta ai似乎已經從海峽時報的旁白頁面中檢索了信息,導致猜測聊天機器人可能已經在線搜索了細節,但錯誤地將Chia的身份與他所撰寫的頭條新聞相關聯,可能包括他報告的法庭案件。
儘管他表明回答是通過給他們“放下大拇指”並通過Meta AI的“報告“錯誤”頁面報告的不准確性,但聊天機器人每次Chia重複提示時都會提供相同的錯誤答案:“誰是Osmond Chia? ”
但是,錯誤的信息似乎在重新訪問聊天機器人並稍後提出同樣的問題後糾正了。
Meta AI的最初飛躍達到如此極端的結論令人困惑。根據Chia的說法,Meta AI關於同事BIO的進一步疑問,包括有關犯罪的人的BIO,揭示了對他們的準確描述記者。
一位元發言人解釋說,這項技術是新的,並且可能並不總是產生所需的響應,這是生成AI系統中的常見特徵。
他們強調了在功能中提供信息的重要性,以告知用戶出現不准確或不適當的輸出的可能性。
最近,生成的AI模型已通過檢索增強發電(RAG)進行了培訓,這是一種迅速工程技術的技術。
這種方法指示聊天機器人搜索廣泛的數據庫以獲取相關信息,類似於Meta AI利用Google進行響應的方式。
導航矛盾
元在其使用條款上明確指出,無法保證其AI響應的可預測性。敦促用戶驗證所提供的輸出,因為他們有責任驗證。
Meta強調,AI和內容可能無法反映準確,完整或當前信息。
儘管元可能會依靠這些免責聲明作為法律辯護,但似乎存在矛盾。鼓勵用戶在準確性的假設下利用聊天機器人,但是發生不准確時會出現不一致之處。
這種差異引起了邏輯困境:如果聊天機器人不一致可靠,為什麼用戶會繼續使用它們?
因此,鑑於與法律程序相關的大量成本,大多數用戶可能會選擇向平台報告錯誤信息。
