這對歐盟委員會來說是一個巨大的挫折。去年五月,她提出了一項打擊兒童色情製品的新法案。該文本如果獲得通過,將授權人工智慧直接在用戶終端上進行自動分析。這個想法不僅要檢測已知或未知的非法內容,還要檢測成年人與未成年人接觸的嘗試(法語中的「grooming」或pedopiageage)。換句話說,它涉及設置德後門高度複雜,能夠繞過即時訊息和其他通訊服務中的端對端加密。
一個值得老大哥的項目
很快,這項法案引起了強烈抗議安全研究人員和人權活動家。歐洲保護個人資料的警察現在剛剛嘲笑了這個計畫。歐洲資料保護委員會——其中包括歐盟 27 個 CNIL 主席和歐洲資料保護監督員——剛剛針對委員會的文字發表了長達 36 頁的特別負面意見。這將代表“與因兒童色情製品而被起訴的罪犯相比,個人以及整個社會面臨的風險更大”,我們可以在新聞稿中讀到。
事實上,該機構認為該計畫中提出的分析條件既不明確也不精確。因此,他們面臨著遭到監視的風險“普遍和非歧視» 所有數位通訊的老大哥風格。人工智慧的使用似乎特別不受歡迎,因為“它可能會產生錯誤並且具有高度侵入性»。“即使這項技術僅限於指標的使用,但對個人文字和音訊通訊進行廣泛監視的負面影響是如此嚴重,以至於根據‘歐盟’基本權利憲章是不合理的”歐洲資料保護主管 Wojciech Wiewiorowski 估計。
限制與歐洲刑警組織的資料交換
委員會也認為,端對端加密是保護隱私和言論自由的基本支柱,為了所有人的利益,這一支柱不應被削弱。最後,歐洲機構注意到成立了一個名為「歐盟中心」的新組織,該組織將致力於打擊兒童色情製品。他將受益於對歐洲刑警組織資料庫的完全訪問,反之亦然。但在資料保護警察看來,這種程度的共享未免有些誇張。“歐盟中心和歐洲刑警組織之間的數據傳輸只能根據具體情況進行”,我們可以在通知中看到。
來源 : EDP