山姆·奧特曼(Sam Altman)對AI,尤其是Chatgpt-4的潛力表示了擔憂。他警告說,這項技術的潛在危險後果,並強調了對適當監管的需求,以最大程度地降低風險。
該公司造成CHETGPT的公司首席執行官,但同時也警告說,人工智能可能對我們的社會代表的危險。他強調,監管機構必須參與技術,以保護自己免受對人類的潛在負面影響。
防止AI的負面後果
人工智能(AI)正在巨大改變我們的世界。在該領域脫穎而出的公司中,由Sam Altman領導的Openai在前線。 Openai致力於AI的研究和開發,並最近揭幕了其最新的創作:GPT-4模型。
在接受采訪ABC新聞,Altman強調了人工智能提供的可能性領域。他毫不猶豫地說可能是“人類仍在發展的最偉大的技術”。但這也仍然意識到這可能導致的漂移:
“我們必須在這裡小心。[…]我認為人們應該為我們有些害怕而感到高興。[…]我特別擔心這些模型可用於大規模虛假信息。 […]現在他們在編寫計算機代碼方面有所改善,[ILS]可用於進攻性網絡攻擊。 »»»
發行僅四個月後,Chatgpt已成為歷史增長最快的消費者應用。不斷發展的工具的令人印象深刻的增長。關於上週推出的新的GPT-4模型,Altman表示,最新版本不是“不完美”,同時強調了其令人印象深刻的編碼能力或成功得分很高的法律和數學的能力。
“人類控制下的工具”
Openai恐懼的首席執行官首先使用這種病態的人使用這種工具,而他們沒有建立“我們施加的一些安全限制”。他繼續指定Chatgpt-4使用演繹推理,而不是基於記憶。正如山姆·奧特曼(Sam Altman)指出的那樣,可以導致奇異答案的操作:
“我試圖警告別人的東西就是我們所說的“幻覺問題”。該模型可以充滿信心地陳述事物,好像它們是事實一樣,而一切都已發明。 »»»
在Microsoft進行了大量投資並將Chatgpt模型整合到Bing時,發生了警告,解除了致力於負責人AI的團隊。奧特曼(Altman)的擔憂回應了埃隆·馬斯克(Elon Musk)的推文,其歷史可追溯到2022年12月1日。“沒有對AI的監管,這是一個主要問題 *。我一直在要求AI安全法規十多年!»»»»»
來源 : ABC新聞