来自的新研究Ofcom揭示了英国及以后的盛行的流行程度。根据在线监管机构的说法,15岁以上的人中有43%的人说他们至少见过一个深击在过去的六个月中在线。令人担忧的是,在8-15岁的儿童中,这个数字上升到50%。明确的内容是一个日益严重的问题,随着色情深层爆发,造成了现实生活中的危害。
最近的威斯敏斯特媒体论坛(Westminster Media Forum)出现了有关深层蛋糕的更多见解,该论坛的重点是解决虚假信息的传播和恶意用途。利益相关者和政策制定者聚集在一起,讨论英国的当前和新兴的虚假信息趋势,“监管机构和受影响方之间的担忧加剧”。
性深烟对被盗形象的女性造成了真正的损害
准确的深层数字很难跟踪,但是从Ofcom说,从可用的证据中,在线共享的最常见的深击形式之一是非自愿的亲密内容。”根据深冰滥用景观分析通过数字权利倡导小组,我的形象,我的选择(MIMC),现在有超过276,000种这种类型的视频在最受欢迎的Deepfake网站上流通,总浏览量超过42亿。在2023年,发布的滥用视频比每隔一年的总和更多。
Ofcom的新讨论论文“深层防御:减轻欺骗性深击的危害”,七分之一的成年人说,他们看到了深瓦蛋白报道的报告,看到了性深果或“深裸”。那些不到三分之二的人说,性明显的深击是一个名人或公众人物。 15%的人说这是他们认识的人。有六%的人说他们看到的深冰是自己的假版本。 17%的人认为它描绘了18岁以下的人。
Ofcom说的证据表明,绝大多数性露骨的深击是女性的,其中许多人因被目标而患有PTSD或焦虑症。监管机构说,Deepfakes“已经对普通人造成了严重伤害 - 无论是通过非自愿性性深层视频而出现的,还是成为受害者Deepfake Romance Scams和欺诈广告。”
Generative AI扮演着加剧的角色,使深层效果比以往任何时候都更容易,更便宜。但这也是Deepfake Defense Arsenal中的关键工具,尤其是随着进步的进步合成身份帮助开发人员创建全面和公平的数据集。
对深击的防御分为四个类别:OFCOM
就防御策略而言,OFCOM确定了在风险的用户和组织中可以使用的四个“大型干预类别”:预防,嵌入,检测和执行。
预防“涉及阻止创建的努力有害的深击,随着模型开发人员介绍保障措施并调整其技术,以使创建有害内容更加困难。”
嵌入“需要将信息附加到内容以表明其起源”。例如,无形的水印,出处元数据或AI生成的内容的标签。
检测“意味着使用工具来揭示内容的起源,无论是否以上述方式附加了信息。”Deepfake检测和LIVISINE检测越来越多地是生物识别技术,数字身份和网络安全提供商的关键工具的一部分。
最后,执行“涉及设置和传达有关可以使用合成内容类型的明确规则基因模型以及相关的工具,以及可以在在线平台上共享的内容类型。它也可能涉及对违反这些规则的用户采取行动,例如,删除内容并暂停或删除帐户。”也就是说,制定规则并执行它们。
Ofcom的网站已完整Deepfake国防报告。
威斯敏斯特论坛(Westminster Forum
威斯敏斯特媒体论坛的对话反映了类似的担忧和相关的努力,以确保法规足够艰难,以至于窒息了深层威胁。媒体,技术,法律和法规中代表的想法对虚假信息威胁对我们社会的支柱,例如对公平和自由媒体的信任,功能性经济和民主进程。
出现了一个主题:简而言之AI的正式规则和框架。引用英国主要媒体ITN的新闻分销和商业创新总监Tami Hoffman引用主持人Tami Hoffman,“目前的情况是,我们不能依靠技术来解决这一政策,法律和法规以及将所有这些问题汇总在一起的逆向框架。”她说,这取决于决策者。
霍夫曼认为,生成的AI平台的“幻觉不是一个,而是一个功能”DeepFake内容。她说,从本质上讲,LMS或大型语言模型是概率机器。而且“有了任何形式的概率,总是有可能获得首选结果的风险百分比。经济部门使这一危险加剧了,因为在确保市场优势和首先推动市场优势的竞赛中,我们已经看到科技公司向公众发布了更新,然后在现实世界中开发了公众。
她建议,作为一个思想实验,“将科技公司换成汽车制造商或婴儿食品生产商在未选择的公众中而不是在实验室中测试其产品。”避免熟悉:大数据公司是自己合规性的贫穷牧羊人。 “我们不能让科技公司为自己的业务编写规则。”
霍夫曼(Hoffman实践守则对于所有公共机构。
科技行业的观点对监管机构,用户承担责任
贸易协会数字法规政策经理Javahir AskariTechuk,带来行业的观点:永远不要太沮丧,专注于机遇和挑战,并最终将责任推向技术公司以外的所有人。
Askari说:“这两种机会和威胁都对民主,公民和经济构成了威胁。”她认为Deepfake威胁经常被引起轰动,说:“尚未全面存在大规模威胁,我认为这为我们跨部门提供了一个非常好的机会,可以尝试建立这两种防御性策略,也是积极主动的工具。”
Askari推动决策者进行更多国际合作,以撤销Deepfakes,并为开发人员之间的协作交流提供“在线安全沙箱”。 “有一些最佳实践领域将有助于确定真实的媒体,并真正解决虚假信息威胁的上升她说:“虽然仍允许公司在内容出处空间中进行创新。”
最后,她说,人们只需要更好地了解什么是真实的,什么不是真实的。 “技术真正呼吁的技术是在媒体素养上的更好的跨跨代理工作,无论是这是儿童教育在学校甚至成年人教育的组成部分 - 教英国的人口,您知道,如何成为更多媒体识字。”
Kidron解决了青年兴奋的三个问题,对AI感到困扰
事件主持人男爵夫人Beeban Kidron,联合国秘书长的人工智能高级咨询机构的专家顾问,以及5Rights Foundation(其他头衔)的主席,认为年轻人已经很清楚潜力和人工智能的危险,并提出了与技术有关的三个核心问题。
“首先是,鉴于年轻人在线获得大部分信息,如果我们在越来越不可信的材料与匿名规则更加严格的规则之间取得平衡,因此与发布该信息的人相匹配和虚假信息会更容易。”
其次,“如果基金会模型的创建者,由它们构建的产品和服务的创建者以及使用它们的产品的创建者以及那些使用它们的产品的创造者都对其启用,分发和生产的内容具有独立而特定的法律责任。”
最后,这个问题回到了Ofcom的研究:“鉴于女孩在网上遭受虐待而遭受不成比例的痛苦,而安德鲁·泰特(Andrew Tate)型态度和deepfakes等人等等,等等,这是否应该成为独立的罪行?”
法规是否可以跟上狂热技术部门驱动的生成AI模型的快速发展?将要生物识别技术和人工智能工具能够在伟大的Deepfake检测战中击败AI欺诈吗?谁有最终的责任,以确保世界不会被错误的信息和虚假信息,性剥削性的深层内容以及无休止的说话虚拟脑袋的游行淹没?
答案是在进行中的。当然,你总是可以问chatgpt。