尖端的数字处理能力意味着人工智能系统能够及早发现疾病,管理化学反应,并解释一些宇宙的奥秘。
但这种令人难以置信且几乎无限的人工脑力也有一个缺点。
新的研究强调了人工智能模型可以轻松地被训练用于恶意目的和良好目的,特别是在这种情况下想象假设的生物武器代理的设计。 现有人工智能的试运行仅在六个小时内就识别出 40,000 种此类生物武器化学品。
换句话说,虽然人工智能可以非常强大? 而且比人类快得多得多? 当谈到发现化学组合和药物化合物以改善我们的健康时,同样的力量可以用来想象潜在的非常危险和致命的物质。
研究人员在一份报告中写道:“我们花了几十年的时间使用计算机和人工智能来改善人类健康,而不是降低人类健康。”新评论。
“我们天真地想到了我们的贸易可能被滥用,因为我们的目标一直是避免可能干扰人类生命必需的许多不同类别蛋白质的分子特征。”
该团队在一次国际安全会议上进行了试验,让名为 MegaSyn 的人工智能系统投入工作? 不是以其正常的操作模式,即检测分子的毒性以避免它们,而是做相反的事情。
在实验中,有毒分子被保留下来,而不是被消除。 更重要的是,该模型还经过训练将这些分子组合在一起? 这就是在如此短的时间内产生如此多假设的生物武器的原因。
特别是,研究人员用类药物分子数据库中的分子训练人工智能,指示它们需要类似于强效神经毒剂 VX 的东西。
事实证明,许多生成的化合物的毒性甚至比 VX 还要大。 因此,这项新研究的作者对他们研究的一些细节保密,并认真讨论了是否公开这些结果。
“通过反转我们的使用模型,我们已经将无害的生成模型从有用的医学工具转变为可能致命分子的生成器,”研究人员解释说。
在接受采访时边缘,法比奥·乌尔维纳? 新论文的主要作者和 Collaborations Pharmaceuticals 的高级科学家,研究是在哪里进行的? 解释说,从好的人工智能到坏的人工智能“切换”并不需要太多的时间。
虽然所列出的生物武器都没有在实验室中实际探索或组装过,但研究人员表示,他们的实验可以作为一个警告人工智能的危险? 这是一个警告,人类应该好好注意。
虽然团队在这里所做的事情需要一些专业知识,但很多过程都相对简单,并且使用公开可用的工具。
研究人员现在呼吁“重新审视”人工智能系统如何可能被用于恶意目的。 他们表示,研究界更高的认识、更强有力的指导方针和更严格的监管可以帮助我们避免这些人工智能能力可能导致的危险。
“因此,我们的概念证明强调了非人类自主制造致命化学武器是完全可行的,”研究人员解释说。
“这并不是危言耸听,但这应该为‘药物发现中的人工智能’界的同事们敲响警钟。”
该研究发表于自然机器智能。