《倫敦標準報》在其新印刷周刊的第一期中進行了一項實驗,該實驗的形式是:AI 產生的評論國立美術館梵谷:詩人與情人展覽,以已故藝術評論家的風格撰寫布萊恩·休厄爾。
這種性質的實驗通常旨在將現實世界的觀察與一般理論聯繫起來。為了成功地證實或拒絕偉大想法的實驗,需要明確的設計和目的。關於標準實驗的設計和細節的分享很少以及所使用的演算法尚不清楚。但目的又是什麼呢?
這是對藝術評論家角色的嘗試性探索嗎?它的目的是否在於引發更廣泛的社會對話,討論那些可替代和不可替代的人類工作?這是一個關於科技如何幫助我們應對失去寶貴生命的道德實驗嗎?或者只是另一個圖靈測試來判斷人工智慧離人類智慧還有多遠?
如果目標無法確定,也許這篇評論可以被視為另一種意義上的「實驗性」——允許對一個更哲學的問題進行嘗試性探索,即如何將人類簡化為機器。
本文是我們的藝術現況系列的一部分。這些文章應對藝術和遺產行業的挑戰,並慶祝所取得的勝利。
一種可能性是,這項新技術可能會導致以色列學者和作家尤瓦爾·諾亞·哈拉里(Yuval Noah Harari)所說的「去個性化」。因為身為人類,我們的許多資訊——我們的想法、我們的信念、我們所愛的東西或我們所愛的人——都可以被簡化為人工智慧數據點,所以我們在某種意義上被它分裂或支離破碎。因此,用休厄爾收集的文字訓練人工智慧系統會分裂他曾經的樣子。
批評者嘲笑人工智慧撰寫的評論,認為它是一個蒼白的副本,無法捕捉到「休厄爾寫作中的尖刻與傲慢。」但這種觀點掩蓋了人們對這項技術所帶來的哲學威脅的更大認識——將人類簡化為機器。
哲學家如何看待這種威脅
哲學家漢娜·阿倫特 (Hannah Arendt) 在 1958 年出版的《人類狀況》一書中提出了反對這種還原論的令人不寒而慄的論點。她警告說,在這個世界上,強大的電腦似乎會接近獨立思考和意識。但她認為,這能否算是思想,取決於我們是否願意將自己的思想簡化為純粹的計算和計算。
阿倫特認為,我們可以而且應該抵制這種減少,因為人類與世界互動的方式多種多樣。在《人類狀況》中,她區分了她所說的「勞動」、「工作」和「行動」。如果勞動是自然的,而工作是人工的,那麼對阿倫特來說,行動就更接近不受約束的人類創造力的領域。
「行動」是人們用語言講述自己生活故事時所做的事情。它是一種溝通形式:透過語言,我們能夠闡明我們行為的意義,並將我們的行為與不同於我們的其他人的行為協調起來。
但阿倫特擔心,這種透過語言和說故事進行的創造性的人類交流可能會被簡化為機械構造——人工的東西。她還堅持認為,如果故事的敘述需要個人在世界上採取立場並採取行動,那麼它的持久性取決於是否有其他人聽到並重述它,也許以不同的形式。這在一定程度上取決於信任。但如果人類的行為被簡化為機器所能產生的,這種信任紐帶就會受到威脅。
另一位與我們時代更接近的哲學家丹尼爾·丹尼特 (Daniel Dennett) 擔心人工智慧的廣泛、不加反思的發展和採用會導致信任受到侵蝕,他於今年早些時候去世。在丹尼特最危言聳聽的時刻爭論最迫切的問題不是人工智慧會搶走工作或改變戰爭,而是它們會摧毀人類的信任。
即使大型語言模型(能夠透過處理大量文字資料來理解和產生人類語言的人工智慧系統)永遠不會像人類那樣思考,即使它們無法講述自己的故事,但仍然存在根據,非常真實的可能性丹尼特,他們將帶我們進入一個我們無法辨別真假的世界,在那裡我們不知道該相信誰。這是一個可怕的思想實驗,標準可能(無意中)引起了我們的注意。
引文:《倫敦標準》的人工智慧生成評論,由已故藝術評論家布萊恩·休厄爾(Brian Sewell) 撰寫,揭露了一個重大的哲學威脅(2024 年,10 月2 日),2024 年10 月2 日取自https://webbedxp.com/science/jamaal/news/2024-10-london -標準-ai-產生-late.html
本文檔受版權保護。除私人學習或研究目的的公平交易外,未經書面許可不得複製任何部分。所提供的內容僅供參考。