上周,在维也纳举行的Tedai首届会议汇集了该行业的领先思想和创新者,讨论了迅速变化的人工智能格局。
近几个月来,深层蛋糕的问题一直处于AI话语的最前沿,这尤其是因为2024年的选举数量。这在Tedai没有什么不同,在Tedai,Aleph Alpha的首席执行官Jonas Andrulis探索了如何保护我们的数字未来的问题。
在会议期间,安德鲁斯评论了“某些使用人工智能的人有一种有毒的影响。”这当然是正确的。将2024标记为“深冰的一年”作为消费者,选民和用户,首次面对Deepfake技术,作为将他们以金钱或投票方式剥削的手段。
Deepfakes的兴起既带来了技术挑战,也提出了保护我们数字未来的机会。我们必须平衡创新与信任和安全的需求。
Deepfake技术的扩散具有严重的现实并发症。在Tedai的同一次会议上,安全专家和前TED议长Mikko Hypponen指出2023年斯洛伐克选举在选举日的前夕,据称对自由进步的斯洛伐克党领袖Michalšimečka和记者MonikaTódová的录音被发布在Facebook上。据称,录音显示了两人讨论购买票。两人立即将此音频谴责为假。
随着AI的发展,我们开始更好地理解其功能,使用技术和伦理解决方案有一些方法来应对这种威胁。
玛丽·谢尔顿(Mary Shelton)的技术,媒体和电信的EMEA领导者也在Tedai发表讲话,认为可以并且应该增强道德框架和职责,以确保我们消耗和分享的内容是“可信,可解释,[和]可靠。”
实现这一目标的一条途径是发展公司责任。我们已经看到了确保跟随加利福尼亚州州长的行动,加文·纽瑟姆(Gavin Newsom)的立法举动要求Robocalls使用Deepfake创建的声音,并确保什么确保什么福布斯被描述为“从平台标签到创作者删除和披露的一系列控制措施。”
这是回答谢尔顿担心的一步“我们[需要]正确的治理”确保这项技术是由“通过设计信任。”
AI企业家和网络安全专家Rotem Farkash,他也在维也纳出席,回应了Shelton的观点,认为这一点“强大的公司治理框架是保护消费者并保护开发商免受其最初任务以外目的的技术的关键第一步之一。”
“作为开发人员,”Farkash继续“一个很大的问题是,恶意参与者可以将我们的技术用于该技术从未设计的目的。这确实违背了我们作为创新者和创作者的原则,因此,作为这个领域的领导者,我们必须确保我们拥有适当的减轻这些问题的系统。”
AI Deepfakes在Teedai是头脑中的头脑,这证明了活动,其专家和整个行业,这些重要问题正在获得我们需要收到的覆盖范围。至关重要的是,开发商和领导者在行业内部和外部,这一事件产生的势头继续保持警惕,以保护我们的数字未来免受现实操纵的影响。