不可否認的是先進、強大、智能,並提供比任何其他技術更多的功能或特性,但請記住,它仍然是幻覺並分享錯誤訊息。人工智慧聊天機器人總是能夠在用戶提出問題時與他們分享答案,這導致許多人越來越喜歡這項技術作為搜尋引擎的替代品。
然而,雖然人工智慧可以回答,但它有時可能會給用戶帶來幻覺或捏造訊息,只是為了不「辜負」那些提出問題的人,但現在是時候回歸依賴真實新聞和合法來源而不是機器了。
人工智慧聊天機器人仍在產生錯誤訊息、假新聞的幻覺
人工智慧聊天機器人仍然傾向於分享錯誤訊息,這仍然是現代世界最大的現象之一,為什麼如此先進的東西會為了回答問題而創建虛假或捏造的數據?然而,他們產生幻覺的真正原因並不完全是人們所期望的,特別是人們可能認為聊天機器人只想取悅他們的主人,也就是人類,並避免空手而歸。
在一份報告中邊緣即使在最近的情況下,人工智慧仍然處於幻覺中,一些知名人士依賴 OpenAI 的 ChatGPT 等來獲取新聞和訊息,儘管它們有明顯的問題。儘管人工智慧已經可以訪問互聯網,並且正在建立更先進的模型,這些模型可以理解上下文或提供“推理”,但即使對問題進行了許多修復或解決方案,聊天機器人仍然可能會回到幻覺。
原因有很多AI軟體會產生幻覺,這包括缺乏上下文理解、錯誤的提示、無法訪問更新的數據、培訓不足以及更多仍然導致一個答案:糟糕的程式設計。可以肯定地說,目前用戶在使用人工智慧聊天機器人等時應該保持警惕,因為他們仍然有可能產生幻覺,尤其是在目前的狀態下。
是時候停止使用人工智慧作為搜尋引擎了,新聞來源
這些假期可能是人工智慧的重要時刻,因為 OpenAI 和Google等公司展示了他們的最新模型,但儘管取得了這些進步,但仍存在根本問題。因此,使用者仍然應該依賴人類撰寫的真實新聞,尤其是來自可信來源的新聞,特別是因為它們更可信、可靠和安全。
來自值得信賴的出版物的真實新聞仍然依賴研究、合法來源和證據來支持他們的說法,但仍然有理由保持警惕,因為其他網站依靠人工智慧為他們創建文章。
人工智慧及其幻覺
OpenAI 繼續前行以及本系列中的其他項目,該公司展示的是他們的人工智慧的進步,因為它可以與用戶“推理”,這使得它比目前的 GPT 先進得多。現在,如果訂閱了 ChatGPT Pro,用戶就有機會訪問它,但那些處於較低級別或可以免費訪問的用戶仍然可以獲得 GPT-4o。
此外,Google還發布了Gemini 2.0,這是其著名的多模態人工智慧的最先進版本,供公眾使用,該公司還推出了其實驗模型這是它對 OpenAI 的「推理」模型的答案。
然而,儘管取得了所有這些進步,聊天機器人下方仍然有一個警告,稱它們的回應可能會出錯。