7月,參議員馬可·魯比奧(Marco Rubio)宣佈在黑暗中孤單他在講話中做了在遺產基金會上,“深層假”技術“操縱了真實的人說或做他們從未說過或做過的事情的音頻和視頻”對國家安全構成了嚴重的威脅。
的確。這個行業正在迅速發展。遠遠超過了其國家安全的影響以及生物特徵識別化種族化對策的發展,一些當局告訴生物識別更新“很有可能”成為新的生物識別行業技術。的確。根據市場和市場在2017年發布的一份報告,2016年全球面部識別市場估計為33.7億美元,預計到2022年將增長到77.6億美元,年增長率為13.9%。行業當局說,這可能會因生物識別欺騙技術市場的增長而阻礙,因為現有的生物識別行業可能被迫開發脫離種族化的對策。
盧比奧警告說:“我相信這是對美國和西方民主國家的下一波攻擊……能夠在廣泛的分析分析後才能確定……只能確定為偽造的偽造視頻,”這是Pew Research Center構成了強大的威脅,鑑於Charles I. Francis I. Francis教授和律師事務所的律師事務所的律師事務所,鑑於Pew Research Center認為,Pew Research Center認為,該研究中心是造成了巨大的威脅。 S. Strauss國際安全與法律中心;馬里蘭州凱里大學法學院的莫頓和索菲亞·馬赫特法學教授丹妮爾·塞倫(Danielle Citron)討厭網絡空間中的犯罪,“截至2017年8月,三分之二的美國人[(67%]報告……他們至少在社交媒體上得到了新聞。這是散發出深層假的偽造內容的沃土。的確,越來越卑鄙,越好。”
這種威脅肯定會悄悄地激發了生物識別行業的淘金熱,開始努力開發“非種族化”技術,以挫敗已經有利的深層假技術業務。
根據情報和軍事官員的說法,生物識別化的深層偽造的無力確實正在迅速成為如此危險的問題。如此之多,以至於國防部(DOD)和情報界(IC)組成部分開始大力致力於脫離種族化的生物識別對策。例如,情報高級研究項目活動(IARPA)的國家情報總監(ODNI)辦公室一直在讚助概念驗證研究計劃,以開發麵部生物識別“去識別”技術。
同時,五角大樓的國防高級研究項目局(DARPA)資助了媒體取證項目這是任務探索和開發技術,以自動淘汰深層的虛假視頻和數字媒體。
2017年的“威脅性報告”,戰爭的新狗:武器化人工智能的未來由西點和亞利桑那州立大學的威脅性實驗室的陸軍網絡研究所,也警告說:“從研討會原始數據中產生的最明顯,最明顯的威脅是一種獨特的方式,可以將AI武器化為武器。監視和脅迫並不是新的威脅,但是當以速度,力量,能力,到達AI的速度,危險時,是新的威脅。”
報告指出,繼續繼續說:“對手的目標將取決於威脅行為者的本質(犯罪,恐怖,國家贊助的國家)。無論如何,AI的武器化監測和駕駛個人是一個有力的威脅。作為一個正在發展的平台,是一個發展的平台,作為心理,身體,身體上或系統的侵擾,AI迅速成為一種現代化的人,我們的現代化是一種使我們的現代化的人,既然是在我們的現代化中的,又是沃克(War)的恐懼,”顯然,需要更多的研究,如果我們能夠更好地了解和闡明它們對美國人口,經濟和生計的影響,那麼我們就可以立即採取務實的務實步驟來減少邪惡的AI參與者的不穩定影響。
問題是陰沉的
“西方為AI所能釋放的'深色假貨'浪潮而做好準備。”和“只要技術研究和反鑑定的努力以並行,斷開連接的曲目進行,幾乎沒有取得進展,那麼在提前[這些]提高這些威脅方面,”最近寫了Brookings Institation Institation的Chris Meserole,Chris Meserole,外交政策,Milder Politive for Middle Essical,Milder Center,Middle Center,中心;以及Alina Polyakova,David M. Rubenstein研究員,外交政策,美國和歐洲中心。
“多虧了更大的數據,更好的算法和自定義硬件,在未來幾年中,世界各地的個人將越來越有能力獲得尖端的人工智能,當它與“深度學習和生成性的對抗性網絡相結合”時,[[將]可以很好地將圖像和視頻醫生給現在,以至於很難將被操縱的文件與apps and apps apps apps和lyeake區分開來。由使用計算機或智能手機的任何人生產。”
十月,在他們的論文中對類固醇的虛假信息:深色假貨的威脅塞尼和克里斯(Chesney and Citron)由外交關係委員會出版,令人擔憂的是,“在線虛假和不信任將轉變為更糟。深度學習算法的快速進步可以綜合視頻和音頻內容,使“深層偽造”的產生使“高度現實的和難以實現的人”所說的東西或曾經說過的東西,而遇到的言論是如此,他們曾經說過,或者是在言論中的事物,或者是在言論中的差異,而這是肯定地傳播的。可信的視頻和音頻內容將在越來越多的政府,非國家演員和個人的範圍內到達,”和,“因此,使用超現實主義,假證據的前進能力有助於向前邁出巨大的飛躍。”
Chesney and Citron forewarned that, “The array of potential harms that deep fakes could entail is stunning,” explaining that, “A well-timed and thoughtfully scripted deep fake or series of deep fakes could tip an election, spark violence in a city primed for civil unrest, bolster insurgent narratives about an enemy's supposed atrocities, or exacerbate political divisions in a society. The opportunities for the sabotage of rivals are軍團 - 例如,通過向外國領導人滑了一項深厚的假貨,揭示了美國官員的侮辱性信念或意圖,從而消除了一項貿易協議。”
他們認為:“考慮這些可怕的可能性。”
•假錄像帶可以以公職人員賄賂,說出種族稱呼或進行通姦;
•政客和其他政府官員可能會出現在他們不在的地方,說或做他們沒有的可怕事情;
•虛假視頻可以將他們與間諜或罪犯的會議召開,引發公眾的憤怒,刑事調查或兩者兼而有之;
•可以顯示士兵在戰區謀殺無辜的平民,引起暴力浪潮,甚至對戰爭努力造成的戰略傷害;
•一個深厚的假假可能會描繪一名白人警官在喊著一名沒有武裝的黑人男子時,同時大喊種族稱呼;
•偽造的音頻剪輯可能會在選舉前夕“揭示”候選人的犯罪行為;
•假錄像帶可能會描繪以色列官員在做或說出如此炎症,以至於在鄰國引起騷亂,可能破壞外交聯繫,甚至激勵暴力浪潮;
•虛假的音頻可能令人信服地描繪了美國官員私下“承認”一項計劃或在海外憤怒的計劃,這是為了破壞重要的外交倡議的精確時機;和,
•假錄像帶可能描繪了緊急官員“宣布”對洛杉磯的導彈罷工或紐約新興的大流行,這引起了恐慌或更糟。
“請注意,這些例子都強調了一個良好的和定期的深層假貨如何在特定的情況下會造成重大傷害,無論是在社會動盪或恐慌之後對物理財產和生命的損害,還是對選舉的完整性的損害,”他們寫道:“深層偽裝構成的威脅……長期,系統性的壓力。”
他們警告說:“迫在眉睫的偽造時代將有所不同,因為創建過度現實,難以欺騙的偽造視頻和音頻內容的能力將散佈廣泛。” “機器學習的進步正在推動這一變化。最值得注意的是,學術研究人員已經建立了生成性的對抗網絡,這些網絡彼此相互抗衡,以創建合成數據(即,假貨)幾乎與其培訓數據相同(即,真實的音頻或視頻)(真實的音頻或視頻)。在各種分類中,類似的工作可能是在某些範圍內開發的,但在某些範圍內開發了一部分,這些範圍是在整個公共範圍內開發的。在領先的情報機構的範圍內,在即將到來的深層假貨中,在這種環境中,任何人都可以在危險的高度上玩遊戲。
盧比奧再次強調了在5月份的參議院情報聽證會選舉委員會的選舉中潛在地剝削深層假象的問題,以考慮將威廉·埃文娜(William R. Evanina)提名為國家反情緒和安全中心(NCSC)的主任,在國家情報局(ODNI)辦公室中,他提出了偽造的威脅,並促成了CHAAOS的使用,他會促成CHAAOS。
在聽證會上,盧比奧(Rubio)提出了深層假貨的問題,他說:“我想談談一個我不相信以前從未討論過的單獨話題……當然不是今天。”他問埃文娜(Evanina),他是否熟悉“深色假貨”一詞。
令人驚訝的是,對於一位經驗豐富的情報官員而言,在聯邦調查局領導該局國家安全部門和反情報部門的職業生涯之後,他是中央情報局反臨時小組的負責人,作為新聯合恐怖主義工作隊的主管特別代理人,埃文尼娜回應說:“我不是,先生。”今天,埃文娜(Evanina)是美國國家反情報高管(ONCIX)的美國辦公室執行官和NCSC董事。
Rubio educated Evanina, explaining to him that, “A deep fake is the ability to manipulate sound images or video to make it appear that a certain person did something that they didn't do. These videos, in fact, are increasingly realistic. The quality of these fakes is rapidly increasing due to artificial intelligence [AI] machine learning algorithms paired with facial mapping software [that makes] it easy and cheap to insert someone's face into a video and produce a very看起來有人說或做他們從未說過或做過的事情的現實視頻,順便說一句,技術在互聯網上廣泛使用,人們已經將其用於各種邪惡的目的。
因此,盧比奧再次問:“您從未聽說過這個詞嗎?”在詢問之前,“在美國政府的任何地方是否有任何工作都開始面對可能構成的威脅 - 在我看來,這將是由於產生外觀,虛假的視頻和音頻的能力而構成的,這些視頻和音頻可用於引起各種各樣的混亂和我們國家嗎?”
埃文娜(Evanina)似乎後退了,埃文娜(Evanina)回答:“答案是肯定的……情報界和聯邦執法部門正在積極努力,不僅要了解對手的複雜性和能力,而且從預測分析的角度來看,我們可能會面對……”
盧比奧接著說,他懷疑“ 99%的美國人口不知道這是什麼,儘管坦率地說,多年來,他們一直在觀看科幻電影中的深層假貨,而這些令人難以置信的特殊效果像人們的才華一樣現實,但由於人們的才能,我們從來沒有看到過如此明顯的能力,或者是如此明顯。”
“然後,當您查看我們在21世紀看到的[信息的武器化……讓我只說世界上總是有宣傳和信息一直是競爭者或對手的強大工具,盧比奧說,盧比奧說,我們從未在人類歷史上逐漸彌補信息,因此,我們從未如此快速地構成信息,因此,何時,您在21世紀看到了我們在21世紀的武器化……的武器化……讓我們在21世紀看到的武器化……”,“當您在21世紀的武器化中,我們只能在人類歷史上,如此快速地構成信息,因此,在21世紀的武器化……然後在您對此做出反應之前,”和“在電視上觀看該圖像的絕大多數人都會相信。而且,如果發生在選舉前兩天或大選前一天的晚上,它可能會影響您的種族結果。”
盧比奧不祥地宣稱,“通過在選舉之前將候選人的視頻放置在前夕的前夕進行或說出某種方式來推動某種敘述的方式來影響結果的能力,它可以在正確的位置進行敘述,以使我們的選舉變得不合時宜,但您對我們的選舉的威脅並不是一位構成的,但我們的選舉構成了任何構成的範圍,構成了一定的構成,構成了憲法,構成了憲法的範圍,這個國家。”
最近,盧比奧獲得了兩黨的支持,9月3日,代表Adam Schiff(D-Calif。),Stephanie Murphy(D-Fla。)和Carlos Curbelo(R-Fla。)信要求情報界(IC)的國家情報(DNI)董事DAN COATS評估“深假”技術帶來的國家安全威脅,並為“國會和公眾為新技術的含義做好準備,這些新技術允許惡意演員在12月14日之前製造音頻,視頻和仍然存在圖像”。
他們的立法者在給大衣的信中說:“超現實的數字偽造(通常稱為“深色假貨”)使用複雜的機器學習技巧來製作令人信服的描述,或者在未經他們的同意或知識的情況下,他們從未做過的事情或說出他們從未做過的事情。” “通過模糊事實與小說之間的界限,深層假技術可能會破壞公眾對錄製的圖像和視頻的信任,以作為現實的客觀描述。”
The bipartisan letter pointed out that, “You have repeatedly raised the alarm about disinformation campaigns in our elections and other efforts to exacerbate political and social divisions in our society to weaken our nation. We are deeply concerned that deep fake technology could soon be deployed by malicious foreign actors,” going on to explain that, “Forged videos, images, or audio could be used to target individuals for blackmail or for other nefarious purposes. Of greater concern對於國家安全,隨著深層技術變得更加先進和訪問,外國人或國內行為者也可以使用它們來傳播錯誤,這可能會對美國的公共話語和國家安全構成威脅,對針對美國的進攻性積極措施的影響廣泛。
因此,他們說:“鑑於這些技術及其迅速發展的重要含義,我們認為情報界的徹底審查是適當的,包括評估可能的反測量和建議對國會的建議。因此,我們要求您諮詢智能社區的適當元素的負責人,以向國會準備一份未經分類版的國會,以準備一份報告。”
通過模糊事實與小說之間的界限,深層假技術可能會破壞公眾對錄製的圖像和視頻的信任,並作為現實的客觀描繪。 ”和“可能成為尋求傳播錯誤信息的敵對權力的有力工具。要幫助情報界和國家做好有效的響應,我們可以在這些方面做出響應,這是我們能夠對自己的言論進行有效的響應,我們可以在我們自己身上進行任何措施,並在我們自己身上進行響應,並在我們自己身上進行保護,並將我們自己制定為我們自己,您可以在某些方面進行措施。 “我希望DNI能夠迅速努力將這些信息傳遞給國會,以確保我們能夠做出明智的公共政策決策。”
眾議院武裝部隊委員會成員墨菲說:“我們需要知道哪些國家對美國利益的利益,美國政府為應對這一國家安全威脅而採取的措施以及情報界正在採取的措施有效地應對威脅。”
Curbelo補充說:“深色假貨有可能破壞我們社會的每個方面,並引發危險的國際和國內後果。具有對國家安全,人權和公共安全的影響,因此,對針對美國和世界各地美國人的這種宣傳的技術能力是毫無預期的。”
在他的文章中研究人員在2018年美國中期選舉期間可能會在可能的Deepfake視頻醜聞,傑里米·胡(Jeremy Hsu)寫道:“在研究人工智能技術和這種技術的社會影響的研究人員中,一場安靜的下注。
“這是一個認真的……非常認真…國家安全問題,出於很多明顯的原因。生物識別更新在背景上。 “讓我們形像一個在政治上的對抗性國家使用這項技術來製作一個虛假的視頻,似乎使我們官員或政治家處於妥協情況下,然後洩漏,然後洩露?篡改,或者是生物識別的,您是否可以看到令人不安的問題。”
“隱藏,隱藏或替換面孔(身份)是真正感興趣的目標,即情報官員試圖將潛在的恐怖分子或恐怖分子聯繫起來,這些恐怖分子或恐怖分子被數據納入Facebook,Twitter,YouTube和其他社交媒體照片所標記的他們所標記的恐怖分子或其他社交媒體照片……好吧,這是一個非常令人不安的新智能問題,我們需要快速地開發出這些問題,以快速而有效地講述了一個問題,以克服這些問題,並分析了一個問題。生物識別更新在背景上。
盧比奧警告說:“想像一下,製作一個讓我或參議員的視頻(馬克·沃納)說了我們在選舉前夕從未說過的話。當我證明視頻是假的時,即使看起來是真實的 - 現在已經太遲了。”
他繼續強調自己的關注:“如果我們能想像的片刻,一個外國情報機構可以使用深層假貨來製作美國政治家使用種族詞或賄賂或任何這種性質的虛假視頻,他們可以使用一個偽造的錄像帶來使用某種宣傳的官員,他們可以使用某種宣傳的官員來使用一些宣傳的錄像帶,他們可以使用一些宣傳的錄像帶來宣布某種宣傳的錄像帶,他們可以使用一些宣傳的錄像帶,使他們有些宣傳的錄像帶,這些宣傳的理論是有可能的,這些官員的理由是,他們可能會扮演任何一個混亂的理論,這些官員可能會扮演任何一個混亂的錄像即將來臨的災難,可能是在選舉前夕產生的一個令人信服的視頻,或者在具有已經存在的文化的重大公共政策決定之前,已經有一種內在的偏見。
同樣,切斯尼和克利特(Chesney)指出,“在最近的一次報告Belfer中心強調了複雜偽造的國家安全影響。例如,對手可以通過網絡增長來獲取真實(和敏感的)文檔,並洩漏真實的文檔以及由“洩漏”偽造的音頻和視頻支持的偽造。無論政府對虛假視頻的反駁多麼可信,公眾信任都可能會動搖。更糟糕的是,新聞機構可能會因迅速報導真實而令人不安的事件而感到震驚,因為擔心它們的證據將被證明是假的(一個人可以很好地想像一下試圖以這種方式捕獲新聞機構的人)。
問題正在擴散 - 迅速
The neck-breaking speed in groundbreaking advancements in Generative Adversarial Networks (GANs), the technology that makes it increasingly “easier to create natural, and legitimate looking images from scratch,” explained researchers, Shahroz Tariq, Sangyup Lee, Hoyoung Kim, Youjin Shin, and Simon S. Woo, all at The State University of New York, Korea (SUNY-Korea), “is a great feat, [但是],它帶來了主要的安全問題,例如使用合成照片進行身份識別和身份驗證應用程序,”他們在最近發表的論文中警告檢測機器和人類在野外創建的假面圖像他們說,他們的研究表明“在檢測GAN產生的圖像高度準確性方面有希望的結果”。
GAN涉及兩個單獨的網絡,一個網絡基於輸入其中的數據生成圖像,以及第二個歧視網絡(對手)評估它們是否真實。
但是,繼續創建了新的gan和gans型技術(包括電影院),用於偽造面部和身體手勢,以及衰老和衰老的人,以將它們作為目標人的非常有說服力的doppelgänger在視頻中渲染,並能夠愚弄生物讀取器和麵對面數據。例如,在他們的論文中Face2Face:RGB視頻的實時面部捕獲和重演,Justus Thies和Matthias Niebner,慕尼黑技術大學;斯坦福大學邁克爾·佐爾弗(MichaelZollhöfer); Marc Stamminger,Erlangen-Nuremberg大學; Max Planck信息學研究所的Christian Theobalt,在慕尼黑技術大學的Visual Computing Group(VCG)視覺計算實驗室工作。
VCG在其網站上說:“ Face2face是一個實時的面部跟踪器,其逐個分析方法準確地符合3D面模型與捕獲的RGB視頻。” “這會產生高精度跟踪,從而可以進行逼真的重新渲染和目標視頻的修改。”換句話說,“簡而言之”說:“一個人可以實時更改目標視頻的表達。該項目通過數百萬YouTube的觀點和廣泛的媒體報導受到了令人難以置信的關注。我們甚至在公共電視節目中多次進行了現場演示!”
例如,請參閱驚人的VFX之前和之後對於Netflix系列,“高層城堡的人”和“De-Aging”技術用於十位演員。
Nvidia的研究人員Tero Karras,Timo Aila和Samuli Laine,Nvidia和Aalto University的Jaakko Lehtinen在他們最近的論文中說,gan的逐步生長,以提高質量,穩定性和變化這是在2018年國際機器學習會議上作為會議論文提出的,描述了甘斯的“新培訓方法”。
他們說:“關鍵的想法是從低分辨率開始逐漸發展生成器和鑑別器”,並添加“隨著培訓的進行,越來越細節的新層都越來越細節。這既可以加快訓練的速度,又可以極大地穩定訓練,並允許它的質量穩定下來,允許訓練穩定下來,EG,EG,Celeba Images在10242.”的圖像。他們還提出了“增加生成圖像的變化,並在無監督的CIFAR 10中達到8:80的創紀錄的成立分數的一種簡單方法”。 ”
CIFAR-10由Alex Krizhevsky,Vinod Nair和Geoffrey Hinton收集,是10個班級的60,000 32×32彩色圖像的數據集,每個班級有6,000張圖像,50,000個培訓圖像和10,000張測試圖像。該數據集分為五個培訓批次和一批測試批次,每個測試批次有10,000張圖像。根據CIFAR-10網站的說法,“測試批量完全包含每個班級的1,000個隨機選擇的圖像。培訓批次包含剩餘的圖像,但有些培訓批次可能包含一個班級的圖像,而不是另一個班級的圖像更多。在它們之間,培訓批次包含每個班級的5,000張圖像。”
“ CIFAR數據集是計算機視覺任務中最著名的數據集之一,” Turk Telekom的商業智能實習生FurkanKınli說。
此外,他們描述了“幾個實施細節對於勸阻發電機和歧視者之間的不健康競爭很重要。最後,他們“建議[ED]在圖像質量和變化方面,用於評估GAN結果的新指標。 ”而且,作為“另一項貢獻”,他們構建了“ Celeba數據集的高質量版本”。
“避免自動的面部檢測和認可變得越來越困難,因為才華橫溢的工程師正在尋找改善這些系統的方法。現實世界中的對策,例如隱私遮陽板或CV Dazzle並不總是有效的,甚至可能使該主題在現實世界中更具識別性。我們仍然可以避免自動檢測嗎?
他們報告說,他們對“有助於隱私意識的人避免自動識別的圖像轉換技術的研究”提出了“我們概述的方法的幾個實際問題。首先,照片上載器,而不是個人,必須記住要使用圖像擾動技術。其次,這些技術使這些技術變得更加差,但這些技術使這些技術變得更糟,但這些技術的範圍很差,這些技術卻忽略了 - 這些技術的範圍很差,並且是強度的強度。網絡平台。
具有諷刺意味的是,對深層偽造和對策的突然關注是,十年前,卡內基·梅隆大學和達帕(Naval Sea System Systems Commands)管理的國際數據隱私實驗室(由海軍海上系統司令部管理)的研究得到了研究。通過去識別面部圖像來保護隱私。
他們說,“需要什麼算法,可以在視頻數據中識別面孔,以使許多面部特徵仍然存在,但是面部識別軟件無法可靠地識別出數據中圖像在數據中捕獲的受試者。這項工作正式引入了“保存的面部脫落問題”的問題,而面部識別軟件是有限的數據,而詳細信息則是最小化的,這些數據是最小化的,這些遺物是最小化的。該社會不必選擇安全而不是隱私,但是社會可以擁有安全性和隱私性。”
9/11之後不久,卡內基·梅隆大學(Carnegie Mellon University)和達帕(DARPA)的國際數據隱私實驗室(DARPA)的一部分鮮為人知的研究也得到了海軍海上系統司令部的管理 - 這導致了研究論文,研究論文,通過去識別面部圖像來保護隱私,在卡內基·梅隆大學計算機科學學院的Elaine Newton,Latanya Sweeney和Bradley Malin。
他們得出的結論是,“在共享視頻監視數據的背景下,對隱私的重大威脅是面部識別軟件,可以自動識別已知的人,例如從駕駛員的許可照片數據庫中,從而跟踪人們,無論懷疑,都可以追踪人們。本文介紹了一個算法,可以通過視頻範圍的數據來確保個人在視頻中的特徵,但要確保視頻的特徵,但要確定這些算法,但要確定這些算法,但要確定這些算法,但要確定這些算法,但要確定這些算法,但要確定這些算法,但要確定這些算法,但要確定這些算法,但要確定這些算法,但要確保視頻的特徵。識別面孔的瑣碎解決方案涉及到任何可能的面部識別。 K-SAME,科學限制了面部識別軟件可靠地識別面部的能力,同時保持圖像中的面部細節。該算法根據距離度量確定面部之間的相似性,並通過平均圖像組件來創建新面孔,這可能是原始圖像像素……”
打擊問題
“這些圖像,”塔里克,李,金,辛和吳說,“對於普通人來說,要判斷他們是真實的人臉或機器產生的面孔或機器生成的面孔。可能會被濫用或虐待gan,或者虐待類似於深處的假貨的人,”這是一種基於人為的機器,用於人類的圖像和超級現有的圖像和超級構成的圖像,這是一種基於人工智能的機器,並將其組合到現有的圖像中,並且是組合的,並將其組合起來。這些虛假視頻可以並且正在社交媒體上,恐怖分子,跨國犯罪組織和流氓國家在社交媒體上發布,作為虛假信息計劃的一部分,對國土和國家安全機構的關注。政治意識形態醫生也可以在社交媒體上創建和宣傳它們,以種植“假新聞”,以影響社會政治觀點和信仰。
確實,深層假貨可以 - 而且有- 被用來製作假新聞和惡意騙局。
Tariq, Lee, Kim, Shin, and Woo echoed Rubio and others' concern in their research paper, saying that, “Due to the significant advancements in image processing and machine learning algorithms, it is much easier to create, edit, and produce high quality images. However, attackers can maliciously use these tools to create legitimate looking but fake images to harm others, bypass image detection algorithms, or fool image recognition classifiers.”
Supported by the Korean Ministry of Science, ICT and Future Planning (MSIP), the Institute for Information & Communications Technology Program (IITP) — under the ICT Consilience Creative program supervised by the Institute for Information & Communications Technology Promotion — and the National Research Foundation (NRF) of the Korean Ministry of Science and ICT (MSIT), the researchers explained that, “The remarkable development of AI and machine learning technologies have assisted in solving the most challenging計算機視覺,自然語言處理,圖像處理等領域的任務。”
然而,他們指出:“最近,機器學習算法是廣泛集成的,以供照片編輯應用程序,以幫助創建,編輯和合成圖像並提高圖像質量。因此,對攝影編輯的專業知識而沒有專業知識的人可以輕鬆地創建複雜且高質量的圖像。此外,許多照片和應用程序都可以在範圍內構成各種有趣的功能,例如,可以觸摸一下facepty faception faception。一個人的面孔與另一個人或動物交換。
“因此,” Tariq,Lee,Kim,Shin和Woo結論說,“濫用這些多媒體技術會引發重大的社會問題和關注點。特別是,其中一個是創造假的色情製品,任何人都可以將受害者的臉放入裸露的身體中,以羞辱和羞辱受害者,並構成更複雜的效果。更加先進,可以創建逼真的假圖像,這很難確定普通人的偽造,並且可以在YouTube上使用這些類型的面部掉期。
他們說:“此外,這些虛假信息可以通過社交媒體迅速而廣泛地傳播(通過互聯網。因此,惡意使用這些支持機器學習的多媒體技術來進行圖像偽造,不僅會導致不僅在虛假的色情創作中陷入重大問題,而且還會導致仇恨犯罪和欺詐行為。”
“In order to detect and prevent these malicious effect[s],” Tariq, Lee, Kim, Shin, and Woo said, “diverse detection methodologies can be applied. However, most of prior research is based on analyzing meta-data or characteristics of image compression information, which can easily be cloaked. Also, splicing or copy-move detection techniques are not effective when attackers forge elaborate images using GANs. In addition, there is no現有的研究以發現圖像。因此,在本文中,我們解決了使用集合方法來檢測gans產生的人臉和人類創建的假圖像的問題。”
他們的研究提出了“基於神經網絡的分類器來檢測機器和人類創建的假人面孔”,他們沒有使用“合奏方法來檢測甘恩斯創建的假圖像並採用預處理技術來改善人類創建的假面部圖像檢測”。他們的方法著重於“分類圖像內容,並且不使用圖像的元數據”。他們報告說,他們的“初步結果表明[他們能夠有效地檢測出gans創建的圖像,以及由94%和74.9%AUROC得分的人類創建的假圖像。”
同樣,ODNI贊助項目之一的作者Yifan Wu,Fan Yang和Haibin Ling在最近的研究論文中指出隱私保護劑,用於面部去識別這是“特別是出於面部去識別問題,困境是,一方面,我們希望被取消識別的圖像與原始圖像盡可能不同,以確保刪除身份;另一方面,我們期望將識別的圖像保留在原始圖像中盡可能多地保留[生物識別]的結構信息,以使圖像效率保持在原始圖像中,以免圖像效率保留。”
誠然,現在,“由於虛假圖像產生的各種複雜性,需要進行更多的研究來檢測人類創建的假圖像,”他們承認,他們還強調,“我們相信更多的培訓數據可以幫助提高績效”,但是,對於未來的工作,我們計劃進一步增強面對面的範圍,並逐漸構建型號,並將差異化的型號以及對人類的差異進行了不同的範圍。 Photoshop可能會加強我們的結果。 ”
“對深層假威脅的理想反應將是能夠快速,可靠地標記深層假貨的軟件的同時發展和擴散,然後與深層假技術的創新保持同步,切斯尼和Citron寫道:“如果存在這種技術並在主要的社交媒體平台上進行了詳盡的影響,那麼它可能會涉及到一定程度的努力,儘管它可能會涉及到一定程度上的變化,但它可能會造成越來越多的損害(雖然是在上面的損害,但它的效果很少,雖然是在上面的損害,但它的效果是不適當的,雖然是在上面的損害,但它的效果(尤其是在範圍內),雖然是在上面的損害,但它的效果是造成的,雖然是范圍的,但它的效果是造成的。需要通過守門社交媒體平台進行分發大規模)。 ”
他們說:“不幸的是,尚不清楚辯方目前正在保持步伐。要強化這項技術的軍備競賽,但是達特茅斯教授漢尼·法里德(Hany Farid)是Photodna的先驅,這項技術(這項技術可以識別和阻止兒童色情製品),警告說:“我們幾十年來,我們可以從一個洞察力的過程中始終做出一個錯誤的方法。法醫系統。這表明需要增加(也許是大幅度增加),這些資源專門用於開發此類技術。 ”
但是,他們還說:“減輕深層假貨威脅的挑戰是真實的,但這並不意味著這種情況是無望的。”切斯尼(Chesney and Citron)和克特隆(Chesney and Citron)表示:“加強國家科學基金會,DARPA和IARPA的當前努力可能會導致突破,從而導致可擴展和穩健的檢測能力和數字出處解決方案。與此同時,當前的興趣浪潮浪潮浪潮浪潮浪潮,以改善社交媒體公司尋求促進欺詐性的欺詐技術的範圍,以促進欺詐技術,以促進欺詐技術,以提供範圍的檢測技術,以提供範圍的探索技術,以實現範圍的範圍 - 用戶可以刪除已知的深層假貨,並共享此類內容,以幫助防止其在其他地方重新發布(遵循用於限制兒童色情內容的模型)。
DARPA的信息創新辦公室以來由Matt Turek博士領導媒體取證(Medifor)計劃“通過開髮用於對圖像或視頻的完整性的技術評估的技術來匯集世界一流的研究人員,以試圖將數字圖像競爭環境提升,該技術目前有利於操縱器,並將其整合到端到端的媒體取證平台中,” Medifor說。而且,“如果成功的話,Medifor平台將自動檢測操作,提供有關如何執行這些操作的詳細信息,以及有關視覺媒體的整體完整性的原因,以促進有關使用任何可疑圖像或視頻的決策。”
正如Medifore所解釋的那樣,“通過複雜的圖像和視頻編輯應用程序的廣泛可用性以及自動操縱算法的廣泛可用性,可以通過視覺上或很難檢測到當前圖像分析和視覺媒體取消媒體工具來進行編輯的方式,這僅是在當今使用的,僅在當今使用的工具,媒體和範圍的一定範圍和範圍,這些工具均缺乏一定的啟示性和範圍,這些算法是非常難以在視覺上和視覺媒體效率工具,可以構成一些方面,並以視覺上的方式和視覺媒體的效率來進行編輯。進行完整且自動的法醫分析不存在。”
此外,切斯尼(Chesney and Citron)敦促,“國會要干預法規立法,迫使這種技術使用這種技術,但是這種方法將需要一定程度的市場干預措施,與以前相對於這些平台和設備的任何事物都不同。此選項也將冒著扼殺創新的風險,因為即使技術和標準能夠挑選贏家,即使是技術和標準,也將繼續進化。”
他們指出,“法律和監管框架可以在緩解問題中發揮作用,但是與大多數基於技術的解決方案一樣,他們將難以產生廣泛的影響,尤其是在國際關係的情況下。現有法律已經解決了一些最惡意的偽造;許多犯罪和侵權法規;許多犯罪的犯罪和侵權法規,這些法律的有害,有害的信息,這些危害和危害的可能性是造成的,而這些危害的人可能會遇到挑戰。美國……”
在最近給DNI,Schiff,Murphy和Curbelo的信中,他要求他“與情報界的適當要素的負責人協商,以準備向國會準備報告,包括未分類的版本,其中包括以下內容:以下內容:
•評估外國政府,外國情報部門或外國個人如何使用深層假技術來損害美國國家安全利益;
•描述外國政府或針對美國已經發生的美國的外國政府或外國個人的任何已確認或懷疑使用的描述;
•確定美國政府或私營部門可以開發和部署的技術對策,以阻止和檢測深層假貨的使用,以及分析此類對抗技術的收益,局限性和缺點,包括隱私問題,包括隱私問題;
•確定情報界的要素,這些要素具有或應該負責監視對深層假技術的使用和響應的發展;
•關於情報界是否需要其他法律機構或財務資源來應對深層假技術構成的威脅的建議;
•向國會提出有關我們可能採取的其他行動的建議,以應對對深層假技術的惡意使用;和
•您認為合適的任何其他信息。
正如切斯尼和普隆在沒有對策的情況下提醒的那樣,“深層假貨是民主政府和世界秩序的深刻嚴重問題。