尽管西方世界继续呼吁人工智能监管,还有那个乔·拜登唤起了“道德义务» 这将给这个行业带来压力,中国已经拿出了重型火炮:语料库所有本地人工智能开发人员都应遵守规则。 4月11日,强大的数字监管机构“中国国家互联网信息办公室» (CAC),发表了21篇文章其中包括 JP.com、百度、SenseTime 和阿里巴巴。本规定的主题:这些的人工智能模型当地冠军从长远来看,这可能会成为对话式聊天机器人或图像生成器。
截至5月10日,这语料库以草案形式提出的规则正在征求意见。然后可以在其本身成为法律之前对其进行修改。但巴黎天主教学院教授、中国问题专家伊曼纽尔·林科特认为,这些已经是适用的原则。 “此类组织以文件形式产生的任何内容都是法律。归根结底,这是极权政权的特殊性。如有必要,他们可以对其进行修改。但无论如何,要点就在那里”。开发人员已经遵守了规定,但他们的服务将被关闭。因为 CAC 严格遵守其发布的原则。本周,负责监控网络的中国当局表示,在 1 月至 3 月期间,已删除了 55 个应用程序和 4,200 个违规网站。
社会主义价值观、准确性、知识产权……
这21篇新文章包括哪些内容?正如网络的情况一样,开发人工智能的公司首先必须遵守一定数量的意识形态原则。人工智能生成的内容必须符合“社会主义基本价值观»(第 4.1 条)且不侵犯“国家权力» 或“民族团结»。时间例如,所有提及天安门事件或民众在隔离期间感受到的困难的内容都应删除。
对于其余的,这些术语故意宽泛和模糊,可能会导致各种各样的解释。 “在极权主义的中国,我们永远不知道合法与非法之间的界限在哪里。在任何时候,您都可能因误解法律而被指控违反法律。这可能有助于打破垄断,就像阿里巴巴和马云发生的事情一样»,伊曼纽尔·林科特回忆道。
但这不仅仅是意识形态原则的问题。网信办进一步要求AI模型生成的数据是“准确真实»,他们没有歧视,并且尊重知识产权。如果违反这些规则,公司将被处以罚款并暂停其服务。甚至可以展开刑事调查(第十九条和第二十条)。最后,企业还必须经历事先评估,在其系统可供公众使用之前(第 6 条)。
另请阅读: AI:针对 ChatGPT 的监管套索收紧
中国进退两难
对于专家来说普林斯顿信息技术政策中心,一个美国跨学科研究中心,这些限制因素将影响模型的构建方式。因为生成式人工智能以来自网络的数据为基础,而网络上有无限量的信息……不准确、错误或受版权保护。因此,这些要求“涉及解决开放式人工智能问题,例如幻觉和偏见,目前尚无有效的解决方案»,他们写道。请理解:对于准确性、非歧视和尊重版权的要求,该行业的巨头目前的回应是:我们正在努力。我们还没有找到适当的解决方案。
对于某些专家引用对外政策,中国进退两难。一方面,它仍然渴望成为全球人工智能超级大国。自2017年以来,人工智能已成为扎根于新丝绸之路的战略领域。 “旁边的警察监视该国正在依靠人工智能来简化拥有数十亿居民的城市,同时也可以弥补人口老龄化带来的未来劳动力短缺»,伊曼纽尔·林科特强调道。
但另一方面,这些新规则可能会极大地阻碍大型法学硕士模型的开发和部署。专家们写道,中国将在人工智能竞赛中落后于西方。CAC 要求中国开发者拥有一定程度的技术控制力,而中国公司或 OpenAI 和微软等当前行业领导者尚未达到这一水平。
规则只适用于面向中国公民的人工智能?
然而,事情比看起来更加微妙。 “在中国,与往常一样,与禁止使用系统相关的所有事情都会采取渐进的方式。我们实际上可以想象,对于普通公众和专门从事民事职业的人工智能来说,CAC的这段文本将适用»,伊曼纽尔·林科特分析道。另一方面, ”在受保护的地区,例如军事或工业综合体,我们可以想象这个文本将完全过时»,他补充道。
对于社交网络而言,类似的规则并没有阻止字节跳动推出符合中国共产党意识形态原则的中国版本(Douyn)以及针对西方国家的没有此限制的版本(抖音)。
与此同时,中国监管机构的要求已经造成一名受害者。 2月初推出的ChatYuan应用程序,名为中国ChatGPT,与中国共产党的路线有太多出入。例如,对话将乌克兰战争描述为“侵略战争»,这与北京的亲俄立场相矛盾。结果,该申请被暂停。从那时起,尽管其开发者希望让他的机器人更加爱国,但还是显示了同样的信息:“故障排除完成后,服务将恢复e”。它会恢复吗?