中国国家信息和安全标准化委员会,路透社报告,想评估并确定使用非法或有害信息对AI进行培训的百分比;然后确定的来源被黑名单。
根据中国机构的说法,所有用于培训公开访问的生成AI模型的内容都将受到安全评估的约束,并且被认为包括“超过5%的非法和有害信息”的内容将被禁止。
委员会指定的非法和有害内容包括在网络上进行的任何经过审查的信息,促进恐怖主义或暴力,呼吁社会主义体系崩溃,损害国家的声誉,破坏社会稳定和民族统一。

中国报道的拟议的安全规范包括要求公司建立这些AI模型,以获取其个人信息(包括生物识别数据)的人的批准,以预防知识产权违规行为。
该提案来自中国机构,由中国网络空间管理(CAC),工业和信息技术部以及警察组成。
中国的提议是在去年八月生效以规范生成AI服务的最终确定的草案规则之后提出的。国会图书馆。据报道,完成的规则是暂时的,因为“临时”一词仍在其规定之内。
中国的AI法规
据说中国在其7月发行的规定中的监管目标旨在促进生成型AI的健康增长和受控的应用,“保护国家安全和社会公共利益”,并“保护公民,法律人员和其他组织的合法权利和利益”。
但是,中国的规定要确保明确指出,监管实践涵盖了只有公开发电的AI服务。
据报道,中国7月发布的限制还禁止“收集不必要的个人信息”,除了“非法保留可以识别用户或向其他人提供给他人的输入信息的输入信息”,以保留用户的输入信息和使用记录的职责。据报道,这些用于公开发电的AI服务的监管实践由其他六个中央政府机构共同调节,包括中国教育部和科学技术部。
AI法规执行
据说中国最近的规定会影响AI行业的大规模成功。时代文章。据报道,专家说,最终的监管实践是世界上“最严格的”。对AI开发人员来说,审查生成的AI输出的困难是一个挑战,即使中国监管机构也认为放松其严格的规定。
作为回应,监管机构在得出结论认为创新也可能会受到打击而没有更“灵活的执法”之后,逐渐对AI节制制定了宽松的规则。
本文中还指出,这种多功能的执法类型也被认为是中国当局在身体认为必要的,通常是“任意且不那么一致”的原因,并与其酌情决定。
AI监管在全球范围内仍然是模棱两可和值得期辩论的,但中国最近的规定被描述为“世界上最早,最详细的法规,管理人工智能。”
