科幻小說充滿了人工智慧變得無賴並背叛他們的人類創造者。 HAL-9000。矩陣。天網。格拉多斯。賽昂人。人類似乎對機器的叛逆有著深深的恐懼。
隨著 Chat GPT 等更複雜的大型語言模型 (LLM) 的興起,人工智慧可能帶來什麼危險有變得更加相關。
現在,我們有一些好消息。德國達姆施塔特工業大學的電腦科學家 Iryna Gurevych 和英國巴斯大學的 Harish Tayyar Madabushi 領導的一項新研究表明,這些模型不會失控。
事實上,它們受到程式設計的限制太大,無法在沒有指導的情況下獲得新技能,因此仍然處於人類的控制之下。
這意味著,儘管我們仍然有可能將這些模型用於邪惡目的,但法學碩士本身是可以安全開發的,無需擔心。
「令人擔心的是,隨著模型變得越來越大,它們將能夠解決我們目前無法預測的新問題,這構成了這些較大模型可能獲得包括推理和規劃在內的危險能力的威脅, 」泰亞馬達布希 說。
“我們的研究表明,擔心模型會消失並做出完全意想不到的、創新的和潛在危險的事情是沒有道理的。”
在過去的幾年裡,法學碩士的複雜程度已經成長到了驚人的程度。他們現在能夠透過文本進行相對連貫的對話,以一種自然且人性化的方式進行。
它們並不完美——因為它們實際上不是一種智慧形式,它們缺少這關鍵技能需要從壞信息中解析好訊息在很多情況下。但他們仍然可以以令人信服的方式傳達不良訊息。
最近,一些研究人員調查了可能性被稱為突現能力由法學碩士獨立開發,而不是在其程式設計中故意編碼。一個特殊的例子是法學碩士能夠回答問題沒有接受過針對這些情況的明確訓練。
觀察結果是,隨著法學碩士規模的擴大,它們變得更加強大並且可以執行更多任務。目前尚不清楚這種擴展是否也意味著我們可能不準備應對的行為風險。因此,研究人員進行了一項調查,看看此類情況是否真正出現,或者程式只是在其程式碼範圍內以複雜的方式運作。
他們試驗了四種不同的法學碩士模型,給他們分配了以下任務:之前被確定為緊急情況。他們沒有發現差異化思維發展的證據,也沒有發現任何模型能夠在其程式設計之外採取行動。
對於所有四個模型,遵循指示的能力、記憶力和語言能力能夠解釋法學碩士所表現出的所有能力。沒有離開滑雪道的機會。我們無需擔心法學碩士本身。
另一方面,人們,不太值得信賴。我們自己對人工智慧的爆炸性使用,需要更多能量並挑戰從版權到信任到如何避免自己的一切數位污染,這正在成為一個真正的問題。
“我們的結果並不意味著人工智慧根本不構成威脅,”古列維奇 說。
「相反,我們表明,所謂的與特定威脅相關的複雜思維技能的出現並沒有證據支持,而且我們畢竟可以很好地控制法學碩士的學習過程。因此,未來的研究應該關注模型帶來的其他風險,例如它們有可能被用來製造假新聞。
該研究已作為會議記錄的一部分發表第62屆計算語言學協會年會。