根據AI社區內部的新聞(或泡沫,如果您願意的話),編碼人員將Deepfake視頻的前景重視為即將發生的威脅。
雖然有些人以生物識別和相關的圈子的氛圍嘆了口氣,但外部的一些人並沒有看到擾亂算法作家的危險。實際上,有些人想知道什麼是什麼大事。
一個意見文章在unite.aiSite指出,視頻綜合一直是今年“發育衝刺”背後的“鍍鋅因素”。 Unite.ai是倡導新聞發布者,主要由政府促進道德AI並報告AI濫用。
冗長的文章值得花時間,吸引了讀者在發現和戰鬥的重要發展方面的重要發展,這在很大程度上取決於平均人類的偽造的生物識別或真實的生物特徵。
元已公開使用文本到視頻軟件,製作video, 例如。 Google研究是推動它是視頻圖像T2V架構。並且,根據文章,穩定性AI已答應視頻的視頻穩定的擴散2023年之前的算法。
但是,本文的肉是關於為偽造互聯網偽造互聯網的工具。其中包括生成的對抗網絡和潛在擴散模型。文章指出,甘斯和擴散器被定位為“外部動畫的輔助作用”,“開始獲得真正的牽引力”。
De-Fake Architecture的支持者是一篇有關通過文章鏈接的論文,無非是“實現由文本到圖像擴散模型產生的圖像的'通用檢測',並確定使用了哪個擴散器來製作圖像。
Salesforce合作從事這項工作。
另一篇論文引用了吹捧刀片跑步者,“插件”軟件,為每個無法創建自己的深泡探測器的人。
新聞發布者業務內部人士本週發表了第二篇文章。它在“哇”類別中更多。作者,小說家和播客埃文·拉特利夫(Evan Ratliff)對他對Deepfake頭像無處不在的驚喜非常漫長。
拉特利夫(Ratliff)看到了一張20多歲的金發碧眼的照片,上面有雞皮和直牙(微笑中缺少下牙)。接下來是敘述他如何痴迷於照片和聊天機器人,並最終意識到他可以利用自己的人類面部識別能力來發現一些假貨。
但是最有趣的觀點來自新聞文章在登記冊上。在看上去有先見之明或幼稚的在五年內,登記冊試圖從深板氣球中取出一些空氣。
放鬆是該出版物引用的Sophos研究人員John Shier的信息。sophos是一家在線安全公司。
僅僅成功地用於密碼的網絡釣魚比構建算法,體系結構和平台要容易得多。也就是說,在試圖欺騙企業時。但是,深冰浪漫的騙局像仲夏割草機一樣被灌注。
“工業化的Deepfake Lovebots”即將在大規模上進行欺騙。
那裡有一個小說家,可能需要立即閱讀。