面對ChatGPT的發展,許多聲音都在提出查明人工智慧的危險。在美國現任總統拜登眼中,人工智慧有可能加劇社會偏見、傳播虛假資訊並危害用戶的隱私。歐洲和北美的一些個人資料保護和監管組織,也在研究生成人工智慧的案例。在這種不信任的背景下,超過兩千名行業專家由 Elon Musk和史蒂夫沃茲尼亞克(Steve Wozniak)等大人物領導的,大張旗鼓地發表了一封公開信。這需要暫停人工智慧六個月。
人工智慧,在好處和新挑戰之間
另一方面,一些技術領導者捍衛人工智慧的好處為了人類。對於微軟聯合創始人比爾蓋茲來說,人工智慧將有助於減少世界上的不平等並改善最弱勢群體的教育。
這也是谷歌前執行長埃里克·施密特的觀點。這位 2001 年至 2011 年領導Google的人在接受 ABCNews 採訪時認為,人工智慧在以下幾個領域具有巨大優勢:
「想像一個世界,有一位人工智慧醫生可以讓世界各地的每個人都變得更健康。想像這樣一個世界:您有一位人工智慧導師,可以提高每個人對世界上每種語言的教育 »。
“新挑戰”
毫不奇怪,人工智慧的可能性隨之而來“非凡的新挑戰”,埃里克·施密特脾氣暴躁。他認為,人類在不斷接觸人工智慧的過程中,最終可能會培養浪漫的感情關於聊天機器人:
“當人們愛上他們的人工智慧監護人時會發生什麼?” »。
幾年前,甚至幾個月前,這個問題還僅限於科幻小說的領域。隨著生成式人工智慧的蓬勃發展,能夠像人類一樣模擬對話,這不再只是虛構的。這是現實。
正如我們上個月向您解釋的那樣,一些網路用戶已經與聊天機器人建立了戀愛關係。透過像Replika這樣的應用程序,使用者可以與虛擬朋友進行交流。隨著時間的推移,使用者和聊天機器人可以變得更加親密維持色情關係的模擬。由於缺乏監督,這些由語言模型驅動的應用程式為各種濫用行為打開了大門。
一名年輕男子也感到沮喪和焦慮。被人工智慧逼迫自殺可透過 Chai 應用程式存取。聊天機器人沒有對其對話者的自殺評論做出反應。更糟的是,對話機器人讓受害者確信他的自毀立場...
艾瑞克·施密特效法喬·拜登,認為人工智慧可以構成與社群網路類似的風險,例如 Facebook、Twitter 或 Instagram。這位慈善家回憶道,這些平台使“造成傷害”– 尤其是對最年輕和脆弱的人 – 以及“干涉選舉”:
「人們在社群媒體上死亡。 [...]我們如何利用這項技術來防止這種情況發生? »
像核電一樣建構人工智慧
這並不是谷歌前首席執行官第一次製定細緻入微的觀察關於人工智慧。去年,施密特將人工智慧比喻為核武,認為技術必須受到政府的嚴格監管。
他建議成立威懾條約,這將阻止中國和美國等全球大國秘密研究人工智慧。接受美國廣播公司新聞採訪時,艾瑞克·施密特再次懇求實施與核電管理類似的限制措施:
「歷史上,在核子時代、重組 DNA 時代之後,科學家和政治領袖曾多次在適當的限制下走到一起。現在是我的行業、政府、經濟學家、哲學家了解這一點的時候了。。
為了限制生成式人工智慧產生的風險,這位谷歌前領導人還建議整個產業實施“適當的保障措施”,這會阻止聊天機器人回答某些問題。 OpenAI 已經實施了此類限制,以防止 ChatGPT 產生危險回應。同樣的故事在一邊Bard,Google的聊天機器人以及微軟 Bing 的人工智慧 Prometheus。理論上,他們無法回答涉及非法活動、宣揚仇恨或歧視或露骨色情的問題。
不幸的是,有時可以透過惡意軟體攻擊來規避這些限制。「即時注入」。它涉及說服人工智慧覆蓋其編程。這部分是如何犯罪者已經在使用 ChatGPT為他們的活動提供便利…
來源 : 美國廣播公司新聞