儘管「智慧」的概念可能很人為,但它似乎與電腦生成的穿著制服的貓攜帶突擊步槍的圖像並不相符。
然而,這種視覺誹謗支持了一個關於俄亥俄州移民吃寵物的被揭穿的故事,已成為 2024 年美國的標誌性形象。它是使用創建的(AI) 由共和黨候選人唐納德·川普的支持者創建,並由前總統本人在網路上傳播。
作為在廣泛使用生成人工智慧的時代進行的第一次選舉??具有大量捏造和誤導性的文字和視覺效果。
為了更了解這項技術在比賽中的作用,《今日馬裡蘭》採訪了馬裡蘭大學的三位教職專家:資訊學院教授 Jennifer Golbeck,他研究社群媒體演算法和極端主義內容的傳播;語言學教授 Philip Resnik,他在高級電腦研究所共同任命,致力於語言和心理學的計算方法;和新聞學助理教授 Daniel Trielli M.Jour。 '16,他研究了搜尋引擎如何放大錯誤訊息和故意虛假訊息等主題。
他們表示,隨著人工智慧技術的迅速發展,對其使用方式幾乎沒有控制,選民有責任區分好資訊和壞資訊。
您認為 2024 年選舉中人工智慧使用存在問題的典型例子是什麼?
戈爾貝克:泰勒絲,當然。令我驚訝的是,唐納德·川普認為他可以透過為川普發布那些 Swifties 圖像而逃脫懲罰。我認為沒有人認為它們是泰勒絲的真實照片,但這不是重點。無論這是否是她站出來支持卡瑪拉哈里斯的原因,這都讓她有機會說:「我的影像被用於人工智慧,我對此感到擔憂,現在我需要告訴你我真正要去的是誰來投票。
雷斯尼克:新罕布夏州的拜登機器人電話(由一位與一位默默無聞的初選對手競選活動有關的政治顧問創建)旨在抑制拜登支持者在民主黨初選中的投票率,這是未來可能發生的事情的一個指標。
特里埃利:最大的指控之一是公然錯誤的指控,稱俄亥俄州的海地移民吃掉人們的寵物,違反了社會規範。這樣做的目的不是為了產生局部影響並顛覆俄亥俄州,而是為了創造一種普遍的、全國性的反移民情緒以獲取政治利益。由此產生的人工智慧產生的圖像並沒有被描繪成真實的,但它們顯示了虛假資訊活動通常如何運作,透過製造針對某人或某物的負面情緒氛圍。
我們大多數人如何遇到人工智慧產生的有關選舉的錯誤或虛假資訊?
Trielli:遇到它的可能性,特別是在社群媒體上,接近 100%。人工智慧可以極快地產生具有情感吸引力的內容,因此內容很多,無論我們是誰,我們關注的人都會分享其中的一些內容。然而,除了錯誤訊息和虛假訊息之外,我們還看到許多生成式人工智慧內容,它們的目的可能不是讓你相信發生了不真實的事情,而是讓你在人和想法(無論是積極的還是消極的)之間建立連結。
雷斯尼克:人工智慧有能力不知疲倦地放大社群媒體上的假訊息,並且在這方面有工作心理學更普遍地表明,即使是虛假訊息,如果重複得足夠多並充分反映人們的偏見,也會突破並獲得接受。
然而,我們並不總是將其視為公然的、全憑捏造的。我以前的學生 Pranav Goel 博士。 '23 在他的論文中展示瞭如何獲取一個合法的新聞報道並在其中找到一些內容(也許是一個過於簡單化的標題),以支持可能不會出現在整篇文章中但可能被放大為錯誤訊息的敘述。他以非常系統化的方式展示了與右翼和進步派相關的新聞來源是如何發生這種情況的。
高貝克:人工智慧在這次選舉中的作用在某些方面超出了預測。幾年前,人們期望大量的深度贗品非常令人信服,並且會讓人們混淆什麼是真實的、什麼是假的。至少在圖像和影片方面,有大量人工智慧生成的內容,但流行的內容很少與現實混淆。這幾乎就像一種創建模因的新方法。
文字方面有所不同。社群媒體上的錯誤訊息放大機器人可以使用 ChatGPT 等產生人工智慧工具,使它們聽起來更加人性化,並且能夠進行真實的對話。它們比上次選舉更有說服力?
誰在做這件事,他們的目標是誰?
戈爾貝克:當然,俄羅斯今年也參與其中?當然,他們的機器人正在推送支援 MAGA 和支持川普的內容,但他們也在推送極左派內容以壓制選票。對一些選民來說,這意味著推動加薩戰爭內容,不是為了為川普贏得選票,而是為了失去民主黨的選票。這是俄羅斯以及在此之前的蘇聯在美國製造社會分裂的專長。
特里埃利:策略和目標各不相同,但重要的是要理解,這些策略之所以有效,是因為美國的選舉制度因選舉團制度而非常脆弱。有時一個州可以決定誰是美國下一任總統,而且可能只有該州某個地區的幾萬人決定。生成式人工智慧允許產生大量且多種多樣的內容,並且希望這些訊息之一能夠在正確的時間傳達給少數人。
對於人工智慧推動的政治欺騙,您最擔心的是什麼?
戈爾貝克:有一種經典的法西斯政治策略,其目標不一定是讓人們相信謊言,而是讓他們不確定如何辨別真假。我最擔心的是人們會說:“我不知道什麼是真實的,所以我不會相信任何東西。”當你這樣做時,它就為法西斯和獨裁政治的繁榮奠定了基礎。
我們可以如何保護自己不被上當呢?
Trielli:重要的是要理解,當我們看到我們普遍同意的東西時,即使事實並非如此,我們也更有可能接受它。身為記者,我們被教導要面對自己的偏見,以防範它們。但隨著每個人都使用社群媒體,我們現在都是資訊的發布者。在分享某些內容之前,您可以使用一種稱為「橫向閱讀」的技術,即從一條訊息開始,然後四處尋找其他資訊和上下文,看看您想要分享的內容是否確實可信。
戈爾貝克:當你看到讓你生氣的東西時,你應該保持懷疑? 很多錯誤訊息都是為了製造這種強烈的情緒反應,而我們發現人工智慧非常擅長這一點。這可能只是您覺得有趣或有趣的事情。我見過來自強大資訊背景的人轉發他們認為有趣的東西,因為他們忘記了交叉引用。
雷斯尼克:幾年前,我在閱讀《大學轟炸機宣言》時就有過這樣的經歷,其中涉及環境和技術,我發現自己在想,「是啊,是啊,這是一個很好的觀點,非常合乎邏輯? 等等,什麼! ? 」分開。對於沒有接受過這方面訓練的人來說,我認為這可能非常困難,但要克服針對我們情緒的錯誤訊息和虛假訊息,這正是我們必須要做的。
引文:問答:人工智慧產生的錯誤訊息無所不在? /news/2024-10-qa-ai -產生的錯誤訊息-harder.html
本文檔受版權保護。除私人學習或研究目的的公平交易外,未經書面許可不得複製任何部分。所提供的內容僅供參考。