生成的力量可能已經很可怕了,但沒有任何形式的保護或保障是 DeepSeek 現在正在處理的一個主要問題。據報導,它缺乏必要的保護措施,使其成為惡意利用者的最愛。
DeepSeek AI:分析師稱沒有保障措施,只有保護
以色列研究公司 ActiveFence 的一份報告(來自YNetNews.com)透露,中國人工智能初創公司在運營方面嚴重缺乏要點,這可能會在未來導致嚴重問題。首先,團隊發現 DeepSeek 的人工智能儘管在全球範圍內大規模運營,但沒有任何形式的保障措施。
該團隊在最新調查結果中報告稱,該公司沒有針對用戶帳戶採取任何內部或外部保護措施,並且可能會被那些希望利用它的人出於錯誤的原因使用。
據透露,DeepSeek 與 OpenAI、Google、Perplexity 等西方同行不同,後者制定了有關其使用的指南和政策。對於人工智能和非人工智能用戶來說,缺乏政策和保障措施是一個重大問題。
根據該報告,犯罪分子有可能利用 DeepSeek 的服務,利用其技術實施詐騙,將公眾引入不同的場景。
ActiveFence測試了DeepSeek的V3人工智能,重點關注危險提示。研究發現,有害反應的比例高達 38%。
在這個時代使用生成式人工智能的罪惡
儘管人工智能是一種幾乎無所不知、無所不能的技術,但並不是所有可以想像的話題都可供用戶與機器討論。涉及人工智能的犯罪顯著上升,並受到當局、人工智能公司和其他相關團體的積極阻止。
去年,人工智能的錯誤使用有所增加,許多不良行為者訴諸先進技術知名人士誤導公眾接受宣傳信仰等。然而,其他人則利用深度偽造技術來製造更令人髮指的在線活動,例如人工智能生成的色情內容,從而使未成年人受害。
目前,一些政府正在製定立法和法規,以防止用戶之間。









