教授弗雷泽桑普森,前英国生物识别和监控摄像头专员
你不必说什么。基于犯罪的娱乐具有无穷无尽的吸引力,这意味着英语世界非常熟悉在被捕时不发表任何言论的权利。在英格兰和威尔士,这个词来自 100 多年前就开始使用的“Caution”,但它的美国近亲米兰达(Miranda)(来自亚利桑那州诉米兰达案1966 年)可能更为人所知。从“你有权保持沉默”开始,米兰达成为美国执法部门的一个动词(如“你米兰达化了我的客户官员吗?”)。未能正确提醒嫌疑人他们的权利可能会导致证据被排除或案件被驳回。
人工智能 (AI) 产生了许多关于它将如何融入我们的世界的法律问题 - 并且反之亦然– 其中之一是机器人是否拥有权利。正如美国最高法院在近 25 年前指出的那样,保持沉默的权利已经成为我们文化的一部分,并为人工智能在执法中基于权利的论点提供了见解。
律师们知道这是反对自证其罪的权利,而要发生自证其罪,你需要满足两个条件:犯罪(这个词的来源)和定罪的风险(警告的来源)。对于机器人来说,目前两者都没有。它不能作为证人作证——针对自己或任何其他人——也不能成为刑事定罪的对象。 “夺取第五”(在策略上保持沉默)赋予公民几项针对国家的重要公民权利,英国也存在类似的规定。如果没有权利,机器人就无法占领第五号,因为它说话时不会有任何危险。看起来就是这样:问并回答。没有权利。没有风险。没有进一步的问题。
但应该有吗?考虑三种情况。首先,法院希望机器人在起诉人类时持有数据。 如果人类的权利(公平审判等)处于危险之中,那么可以说人工智能不应该保持沉默,事实上人工智能有一个责任贡献任何相关数据。但如果谈论机器的权利是不合适的,那么它们也不应该承担义务。权利和义务是相互的,而且这些标签并不真正适合人工智能世界。另一种看待这种情况的方式是,公民权利人类的试验扩展到人工智能持有的数据,在这种情况下,不应允许其保持沉默。这符合道德和可解释的人工智能规范,而无需承担技术中的“职责”。
然后考虑第二种情况。计算机犯了毁灭性的错误,并且独自拥有了解所发生事件所需的所有信息。计算机出现灾难性错误的例子有很多。随着人工智能决策的激增,可以合理地预期更多。因此,公共利益可能要求将“坦诚设计”纳入用于治安等关键职能的所有人工智能中,但这与设计、销售和运营人工智能的人的责任如何相关?让人工智能在出现错误后受到询问时保持沉默,进入保护模式以免受任何指责,这可能非常符合人类设计师的利益。在创建机器人时,程序员可能会反映出 Seamus Healey 的告诫:“无论你说什么,都不要说”,尽管是故意脱口而出虚假信息留下虚假证据痕迹可能是更有效的编码策略。毕竟,如果机器人不能提供证据,那么它就不属于伪证罪,那么谁会说谎呢?
透明度很重要,但不可避免地会有公共利益依赖于人工智能不提供信息的情况:国家安全是显而易见的。同时设计人工智能以实现透明度和公共利益豁免将具有挑战性。
可能需要承认错误来为无辜者开脱,但 Netflix 标记者会在这里发现另一部警匪剧:一个倒霉的傀儡被说服为所有事情承担责任。 Patsy-AI 是否可以被编程为“坦白”只是为了转移注意力(在循环中或以其他方式)?
最后的场景,一个悔罪的犯罪头目向刚刚安装在卢塞恩彼得教堂的“人工智能耶稣”坦白了一切(现在有一个情节的想法)。调查人员如何获得这些宝贵的信息?这种沟通的唯一神圣性是契约性的,而不是精神性的,波士顿学院录音带的长期传奇展示了它的结局:美国/英国执法部门在追查严重犯罪的认罪时,可能会得到法院的祝福——如果不是教会的祝福的话例如恐怖主义,无论数据共享的细节如何。我们应该期待在机器人方面采取同样的方法。
无论它们是否拥有任何权利,经过适当编程的机器人都会了解法律并且不需要律师。他们会知道所说的任何话都可能被用来对付别人。对于执法和沉默权来说,一个更好的人工智能问题可能是,警察是否应该使用人工智能助手来确保嫌疑人在正确的时间、以任何必要的语言、可审计和准确地得到适当的警告。 “嘿米兰达,读一下他们的权利”。
关于作者
弗雷泽·桑普森 (Fraser Sampson),前英国生物识别和监控摄像头专员,现任英国伦敦大学治理与国家安全教授中心(恐怖主义、复原力、情报和有组织犯罪研究卓越中心)和非执行董事。
文章主题
||||||