隨著人工智慧(AI)的興起,(AGI)指的是機器在大多數領域都具有超級智慧並超越人類的程度,這仍然是一種猜測。
科技領袖 Sam Altman 和 Elon Musk 預測 AGI 可能會在 2025-2028 年到來,但事實並非如此。 2025 年真正的風險是人類可能濫用目前的人工智慧工具,而不是擁有超級智慧機器。
無意濫用人工智慧工具
人工智慧在多個領域的採用帶來了一些意想不到的影響,特別是在法律領域。過度依賴人工智慧的律師因提供聊天機器人準備的錯誤文件而受到製裁。以下是一些例子有線其報告中包括:
- 律師 Steven Schwartz 和 Peter LoDuca 因向紐約 ChatGPT 提交虛假引文而受到製裁,並被處以 5,000 美元的罰款。
- 崇科因在不列顛哥倫比亞省的法律呈件中添加一系列捏造的案件而受到處罰。
- 科羅拉多州律師扎卡利亞·克拉比爾受到製裁將多起法庭案件中的錯誤歸咎於人工智慧生成的實習生。
這些案例提醒我們,在未經驗證的情況下盲目信任人工智慧的危險之一,可能會帶來聲譽損害或法律處罰。這就是為什麼我們需要謹慎對待人工智慧產生的資訊。
故意濫用:Deepfake 困境
人工智慧工具也被用於惡意目的的武器化。不想要的 Deepfake,例如性方面的 Deepfake使用微軟的 Designer AI 工具創建的 Taylor Swift 的作品已經變得猖獗。
儘管有保護機制,但名稱拼字錯誤等漏洞可以繞過限制。
開源深度造假工具讓情況變得更糟。這種濫用不僅會影響個人,還會造成社會不信任,使監管和打擊虛假內容變得困難。
「說謊者的紅利」:操縱感知
人工智慧生成的內容模糊了現實與虛構之間的界限,從而產生了一種稱為「說謊者紅利」的現象。這使得人們將實際證據視為虛假而駁回,從而破壞了問責制。範例包括:
- 特斯拉辯稱,馬斯克 (Elon Musk) 2016 年的一段視頻誇大特斯拉自動駕駛儀的安全性可能是深度偽造的。
- 一名印度政客聲稱音頻片段被篡改,儘管其真實性已得到驗證。
- 1 月 6 日,騷亂被告謊稱有罪影片是人工智慧生成的深度偽造影片。
隨著人工智慧生成的音訊、視訊和文字變得更加真實,區分真假的能力將變得越來越困難。
可疑的人工智慧產品作為剝削手段
利用人工智慧炒作的公司通常會銷售對人們的生活做出關鍵決定的破損產品。招募平台 Retorio 聲稱,它可以透過視訊面試來確定候選人的工作適合性。
然而,研究表明該系統很容易被操縱,包括改變背景或眼鏡。
在荷蘭,荷蘭稅務機關使用人工智慧的方式導致數千名家長被錯誤地指控福利欺詐,要求高額還款。該醜聞如此嚴重,導致總理及其內閣辭職。
2025 年降低人工智慧風險
2025 年最重大的風險來自,不是來自流氓超級智慧。它們包括:
- 在人工智慧失敗的地方(例如,法律錯誤)過度依賴人工智慧。
- 故意濫用(例如深度偽造和錯誤訊息)。
- 設計不當的人工智慧系統會對人類造成傷害。
政府、企業和社會必須先關注這些迫在眉睫的問題。只要通用人工智慧的可能性仍然遙遠,關注當今具體的人工智慧風險就可以防範現實世界的傷害。