地獄是由善意鋪就的,打擊犯罪也是如此,在本例中是兒童犯罪。
2021 年 8 月,蘋果宣布有意建立監控系統打擊兒童色情內容的傳播(CSAM,英文為兒童性虐待材料)。為此,在表明保護用戶隱私的同時,它打算透過應用人工智慧演算法控制的過濾器來分析您拍攝或接收的照片。
如果動機值得稱讚,那麼將監視工具植入我們的 iPhone 的風險似乎太大了。以至於許多網路安全專家和眾多捍衛個人自由的協會已經敲響了警鐘。電子前沿基金會當時擔心蘋果會創建「這種基礎設施很容易被改變方向,成為監視或審查的工具。 »不到一個月後,即九月,這家庫比蒂諾巨頭正式宣布暫停其工具的開發倒“在接下來的幾個月里花更多時間收集反饋並做出改進”。
一個有爭議的項目的結束
從那時起,在收集反應和意見的階段,該項目一直保持謹慎。直到昨天。除了宣布即將實施的iCloud 備份的端對端加密,蘋果事實上剛剛正式正式放棄了這個計畫。
在向我們的同事提供的新聞稿中有線,美國巨頭解釋:「我們決定不再繼續開發適用於 iCloud 照片的 CSAM 偵測工具。無需企業挖掘個人數據,兒童就可以得到保護,我們將繼續與政府、兒童權益倡導者和其他公司合作,幫助保護年輕人,保護他們的隱私,並使互聯網成為兒童和我們所有人的更安全的地方。 »
一條新的途徑…通往源頭
然而,蘋果並沒有放棄打擊兒童色情和性虐待的鬥爭。因此他將把重點放在其通訊安全工具。該功能於 2021 年 12 月在美國推出,並自去年 9 月起包含在法國和德國的 iOS 16 中。
該工具允許兒童的父母或法定監護人啟動對 iCloud 帳戶與用戶家人關聯的未成年人智慧型手機的保護。此功能可讓您控制從 Siri、Spotlight 和 Safari 搜尋以及訊息中接收、傳送或查看的內容。因此,蘋果不再計劃採取追溯行動,而是在可能的情況下(當惡意成年人鼓勵兒童發送自己的照片時)阻止內容的製作,並盡可能限制曝光。
蘋果也委託有線繼續致力於在其他國家部署通訊安全功能。這家美國巨頭的工程師們也正在努力豐富這個工具的新功能。因此,用於檢測訊息發送的影片中的裸體的解決方案應該很快就會被整合。但蘋果看得更遠,希望第三方開發者能夠將其工具整合到他們的應用程式中。因此,兒童將警惕所冒的風險並得到更廣泛的保護。這是一個尊重隱私並防止年輕人受到性掠奪者虐待的解決方案。心意雖好,無怨無悔…
來源 : 有線