- 機器人、網誌、網路釣魚:阻止網路的新危險
- 1. 透過瀏覽互聯網
- 2.以及相關的fox郵件
- 3.透過安裝程序
- 4.透過交換文件
- 5.透過聊天
- 6. 使用手機
- 7. 明天會發生什麼攻擊?
- 8. 避難
明天我們將如何受到攻擊?與其他領域一樣,在安全領域,預測是一項危險的工作。但主要趨勢已經清晰可見,它們使我們能夠描繪出攻擊的圖景
預計2008年。網路是主要感染源不再透過電子郵件收到寄生蟲。早在 2007 年,主要的防毒發行商就指出網路已經取代了電子郵件作為主要感染源的地位。又來了兩個重大案件
說明了這一強勁趨勢。去年,義大利有超過 10,000 個網站被盜版者劫持,透過在每個網站上安裝 MPack 感染工具包(郵購售價 700 美元),盜版者讓這些受害網站感染了他們的網站。這次攻擊利用了一系列
漏洞,以安裝廣告寄生蟲和其他旨在劫持電腦的機器人,影響政府、銀行或旅遊網站,這些網站均已完善且每個人都使用過
甚至最近,在今年年初,數百個合法網站被神秘劫持。他們的管理員,甚至是幾個安全解決方案發布者派出的專家,
我們發現無法初步確定伺服器是如何受到損害的。而且,最重要的是,它們在清潔後是如何再次感染的。這些伺服器在訪客的電腦上放置了程式碼
JavaScript 中的惡意程式碼,具有隨機且完全不可見的名稱,並且有充分的理由:寄生蟲僅存在於伺服器的記憶體中,並動態添加到發送給訪客的頁面中。即使在今天,這個謎團還沒有完全解開,儘管我們已經了解了
先後懷疑有易受攻擊的Apache 模組,然後從相關網站的主機上大規模盜取SSH 金鑰。內容,並且能夠感染其他網站。
在 MySpace 上展示了這些詩句。Rootkits 平庸Rootkit 在隱藏電腦上的寄生代碼方面非常有效,去年仍然(相對)具有異國情調。它們正在成為預設安裝的標準設備
第一次感染,然後再下載惡意程式碼本身 隨著網頁感染的興起,JavaScript 已經成為一種非常普遍的感染媒介。 Web 2.0 網站的激增以及 Ajax 的普及可能會使這種語言變得更加流行
對於病毒作者來說至關重要。 Ajax 隱藏了瀏覽器和伺服器可見部分之間的許多交互,從而允許使用多種技巧,例如竊取 cookie、劫持會話等。更具彈性的機器人機器人程序,這些負責劫持 PC 以控制它們的程序,仍然非常簡單:它們非常集中的架構使得有可能中和機器人網絡(殭屍網路)容易地。
但駭客社群多年來致力於開發點對點機器人等去中心化機器人。 Peacomm 寄生蟲於 2007 年出現,利用 P2P Overnet 網路增強抵抗力。這可能不會是
最後的。
Opera One - AI 驅動的網頁瀏覽器
作者:歌劇