包括Meta,Microsoft,Amazon,Openai等包括AI的顶级公司正式签署了确保儿童安全原则的承诺,宣布由非营利组织刺。
新的指南以设计原则称为安全性,旨在防止对儿童进行进一步的性虐待以及AI生成的儿童性虐待材料(AIG-CSAM)的生产和传播。

(照片:PAU BARRENA/AFP通过Getty Images)在展览中漫步在显示“生成AI的力量”下,他们在移动世界大会(MWC)上访问美国跨国公司高通的立场,这是2024年2月27日在巴塞罗那举行的电信行业最大的年度聚会。
签署的承诺确保在整个机器学习(ML)/AI生命周期中使用这些儿童安全指南,从开发,部署和维护的最早阶段开始。
该论文指出这一点是因为该过程的每个阶段都提供了将儿童安全放在首位的机会,而不论所使用的数据如何。
Deepfakes和AI生成的CSAM在国会和其他论坛上引起了极大的关注,其中关于青春期女孩在学校被AI生成的侵犯性侵犯,描绘了她们的相似之处。
另请阅读:AI培训数据包含儿童性虐待图像,发现指向LAION-5B
Deepfake搜索
当搜索Microsoft的Bing和特定女性名人的“假裸体”以及“ Deepfakes”一词之类的术语时,NBC News先前报道说,具有真实儿童脸的性露骨的深层表现是最重要的结果。
此外,消息人士称,它在2024年3月在Meta平台上运行的DeepFake应用程序发现了一项广告活动,提供了16岁女演员的照片。
一个宗旨是技术的进步,它将使企业能够确定是否使用人工智能制作图像。水印是该技术的众多早期形式之一,可以轻松去除。另一个宗旨是AI模型培训数据集将不包含CSAM。
CSAM激增
新原则是最近的报告来自国家失踪和被剥削儿童中心(NCMEC)的来自在线儿童性剥削的令人不安的激增。
NCMEC的年度Cybertipline报告今年在今年中期发布,显示各种虐待形式的增加,包括传播儿童性虐待材料(CSAM)以及财务和性勒索。
关于虐待儿童的在线报告在2023年达到3620万,比前一年增加了12%以上。大多数技巧与CSAM含量有关,例如图片和电影。
尽管如此,金融和性勒索的实例也令人震惊,其中掠食者迫使未成年人给淫秽的照片或电影以换取金钱。
该中心仅在2023年才开始跟踪AI生成的CSAM,但已经收到了4,700个此类报告。这种新的趋势使执法部门更难确定实际的儿童受害者并带来严重的障碍。
在美国,禁止生产和传播描绘儿童性侵犯的信息,甚至是人工智能产生的东西。但是,大部分报告的事件源于美国以外的事件,强调了这个问题的普遍性。
据报道,2023年记录的CSAM事件中有90%以上来自外部来源。
相关文章:恋童癖者使用AI来创建儿童的深胶裸体勒索,黑暗的网络发现揭示了

(照片:技术时报)