数字孪生是使用数据创建的人、产品或流程的副本。这听起来可能像科幻小说,但有些人声称未来十年你可能会拥有一个数字替身。
作为一个人的复制品,理想情况下,数字孪生会做出与你在看到相同材料时做出的相同决定。
这似乎是未来学家的又一个推测性主张。但这的可能性比人们想象的要大得多。
虽然我们可能倾向于假设我们是特殊且独特的,并且拥有足够的信息,(人工智能)可以对我们的行为做出许多推断个性,社会行为, 和购买决策。
大数据时代意味着海量的信息(称为“数据湖") 收集有关您公开的态度和偏好以及您留下的行为痕迹。
同样令人震惊的是组织收集我们的数据。 2019 年,华特迪士尼公司收购了 Hulu,记者和支持者指出,该公司数据收集方面的记录有问题。
看似良性的电话应用程序 – 就像用于点咖啡——每隔几分钟就能从用户那里收集大量数据。
这剑桥分析丑闻说明了这些担忧,用户和监管机构担心某人能够识别、预测和改变其行为的前景。
但我们应该有多担心呢?
高保真度与低保真度
在模拟研究中,保真度指的是副本或模型与其目标的对应程度。模拟器保真度是指模拟与现实世界参考的真实程度。例如,当我们按下键盘或控制器上的按键时,赛车视频游戏会提供速度增加和减少的图像。
驾驶模拟器可能有挡风玻璃、底盘、变速杆、油门踏板和刹车踏板,而视频游戏的保真度则低于驾驶模拟器。
一个数字孪生需要高度保真度,能够融入实时、真实的信息:如果现在外面在下雨,那么模拟器中也会下雨。
在工业领域,数字孪生可以产生根本性的影响。如果我们能够对人机交互系统进行建模,我们就有能力分配资源、预测短缺和故障并做出预测。
一个人类数字孪生将整合有关一个人的偏好、偏见和行为的大量数据,并能够获得有关用户当前物理和社会环境的信息来做出预测。
这些要求意味着实现真的在不久的将来,数字孪生的可能性还很遥远。积累维护用户虚拟模型所需的数据和处理能力所需的传感器数量将是巨大的。目前,开发商满足于低保真模型。
道德问题
生成数字孪生会引发社会和道德问题,涉及数据完整性、模型的预测准确性、创建和更新数字孪生所需的监视能力以及数字孪生的所有权和访问权限。
英国首相本杰明·迪斯雷利经常被引用说:“谎言分三种:谎言、该死的谎言和统计数据,”这意味着数字不可信。
收集的有关我们的数据依赖于收集和分析有关我们的行为和习惯的统计数据,以预测我们在特定情况下的行为方式。
这种情绪反映了一种对统计学家如何收集和解释数据的误解,但这确实引起了一个重要的担忧。
数字孪生最重要的道德问题之一涉及数量谬误,它假设数字有一个客观的意义脱离了上下文。
当我们看数字时,我们常常忘记它们有特定的含义那些来自用于收集它们的测量仪器。测量仪器可能在一种环境中工作,但不在另一种环境中工作。
在收集和使用数据时,我们必须承认选择包括某些功能而不是其他功能。通常,这种选择是出于方便或由于技术的实际限制而进行的。
我们必须对任何基于数据和人工智能的主张持批评态度,因为我们无法获得设计决策。我们必须了解数据是如何收集、处理、使用和呈现的。
权力不平衡
权力不平衡是当今世界日益讨论的话题公开,涉及数据、隐私和监视。
在较小的规模上,这可以产生或增加数字鸿沟——能够使用数字技术的人和无法使用数字技术的人之间的差距。在更大的范围内,这会威胁到以获取和控制信息和技术为前提的新殖民主义。
即使是低保真数字孪生的创建也提供了监控用户、推断他们的行为、尝试影响他们并向他人展示他们的机会。
虽然这可以帮助卫生保健或者教育在不同的环境中,未能赋予用户访问和评估其数据的能力可能会威胁个人自主权和社会集体利益。
数据主体无法获得与大公司和政府相同的资源。他们缺乏时间、培训,也许还缺乏动力。需要一致和独立的监督,以确保我们的数字权利得到保护。
乔丹·理查德·舍恩赫尔,心理学助理教授,康科迪亚大学。