社交媒體通常被用來與朋友和家人建立聯繫,但是這些天來這些平台充滿了極端主義內容,這些媒體促進了恐怖主義,戀童癖,仇恨,加重侮辱和歧視等。

法國通過了新法律
諸如Facebook和Instagram之類的平台很難跟踪這些內容,更需要將其刪除。
為了幫助抗擊可恨的內容,法國現在已經通過了一項新法律,該法律迫使這些主要的社交媒體平台刪除與恐怖主義和戀童癖有關的任何內容,並在通知後一個小時內下一個網絡。
此外,法律還要求他們刪除任何可惡的內容,這些內容在通知後的24小時內促進性虐待,性歧視和加重侮辱。
如果這些社交媒體平台不遵守,他們將支付120萬歐元或約135萬美元的罰款,這比最初的金額僅為37,500歐元或約40,534美元。
對於言論自由來說不是一件好事嗎?
儘管此舉有望確保社交媒體平台對每個用戶,尤其是那些還年輕的用戶都是一個安全的空間,但該法律仍受到某些隱私擁護者的批評。
一個數字權利組織稱為網的正交說此舉實際上可能會剝奪人民的言論自由權,稱新法律只會賦予當局前所未有的權力,以他們認為是恐怖主義。
他們認為,警察將對示威者使用這種權力,或者他們將使用它來阻止全國各地的任何網站,並說他們違反了24小時規則。
儘管如此,社交媒體巨頭Facebook說,這是一個好主意。
Facebook發言人在一份聲明中說,新法律可以幫助他們與極端主義內容作鬥爭,這已經是他們多年來的重中之重。
該發言人說:“我們已經對人和技術進行了投資以更好地識別和刪除它。法規對於幫助對抗這種類型的[極端主義]內容很重要。我們將與ConseilSupérieurde l'Audiovisuel和其他利益相關者緊密合作。”
除了Facebook和Instagram外,Twitter和Internet Google等其他社交媒體平台也受到新法律的影響,但是到目前為止,他們尚未對此問題發表評論。
法國也不是唯一一個決定反對仇恨和極端主義內容的國家,因為歐盟先前也提出了這種準則。
主持人開發了PTSD
由於這些類型的內容,第三方主持人Facebook僱用的內容主持人開發了創傷後應激障礙(PTSD),從必須觀看與自殺和強姦有關的視頻和內容等,如邊緣。
儘管社交媒體平台使用AI去除有害內容,但他們還僱用了人們檢查報告給他們的內容。
現在,該公司已同意支付5200萬美元。英國廣播公司,對於內容主持人,作為他們由於工作而開發的心理健康問題的補償。