根据牛津马丁道德网络和数据体系结构计划(EWADA)的研究人员的说法牛津大学,迫切需要采取更周到的方法将道德原则纳入的发展和监管人工智能,尤其是关于儿童的。
孩子被AI抛在后面吗?
研究人员确定的一个主要问题是缺乏对童年发展方面的考虑。研究人员说,儿童需求的复杂性和多样性,包括年龄,发展阶段,背景和个性等因素。
研究人员强调的另一个挑战是,对童年时代的监护人(例如父母)的作用的关注很少。父母的传统角色通常被认为是优越的,忽略了数字世界不断发展的动态以及对更加平衡的观点的需求。
此外,缺乏以儿童为中心的评估,优先考虑儿童的最大利益和权利。定量评估主导着关于安全和AI系统中的安全和保护的讨论,但是研究人员声称这些评估通常无法解决儿童的细微差别发展需求和长期幸福感。
最后,缺乏协调的跨部门方法来制定儿童道德AI原则,阻碍了有影响力的变化的实施。
AI帮助儿童的工具
研究人员列举了现实生活中的例子来说明这些挑战。尽管AI技术越来越多地通过确定不适当的内容来确保儿童的安全性,但该团队突出了将保护原则整合到AI创新中的差距,尤其是那些由大语言模型(LLMS)支持的创新。
与布里斯托尔大学合作,研究人员正在开发工具,以帮助儿童患有多动症等疾病。这些工具的设计仔细考虑了儿童的需求,以确保与他们的日常工作,数字扫盲技能和偏好相符的界面,以简单性和有效性。
为了应对这些挑战,研究人员提出了一些建议。他们强调需要增加关键利益相关者的参与,包括父母,监护人,AI开发人员和孩子自己。
对行业设计师和AI系统的开发人员的直接支持也至关重要,从而促进了他们参与道德AI原则的实施。
此外,根据研究人员的说法,建立以儿童利益为中心的法律和专业责任机制至关重要。
AI在儿童生活中
牛津马丁研究员Jun Zhao博士,计算机科学系高级研究员,该论文的首席作者,说,“将人工智能纳入儿童的生活和我们的社会是不可避免的。尽管关于谁应该确保技术应有的负责任和道德,但这种负担的很大一部分落在父母和孩子身上,以应对这一复杂的景观。”
“这篇观点文章研究了现有的全球AI道德原则,并确定了关键的差距和未来的发展方向。这些见解对于指导我们的行业和政策制定者至关重要。我们希望这项研究将成为跨部门合作的重要起点,以创建为儿童创造道德AI技术的伦理AI技术和该领域的全球政策发展。”
研究人员的观点文章是出版在《自然机器智能》期刊中。