Max Tegmark,专业人工智能倡导者和科学家警告说,大型技术正在偏离AI的致命威胁。 Tegmark在首尔的AI峰会上说,专注于安全而不是AI杀死慢速监管的能力。
Tegmark将其比作Enrico Fermi的1942年核反应堆创新,导致核武器。据《卫报》报道,他以杰弗里·欣顿(Geoffrey Hinton)和尤舒亚·本格奥(Yoshua Bengio)的担忧为由说:“通过图灵测试,通过图灵测试也是一个类似的警告。”
在去年Openai的GPT-4首次亮相之后,Tegmark的《 Life Institute》的未来推荐了有关高级AI开发的六个月中断。专业支持并没有导致任何停顿。像首尔这样的AI会议导致了监管辩论,但Tegmark表示,公司的压力已使重点摆脱了最严重的关注。
Tegmark还将大型科技公司的游说工作与“烟草公司如何推迟吸烟法规”进行了比较。由于公众关注以及对政府施加的安全标准的需求,他呼吁迅速采取行动。
研究:AI可能导致人类灭绝
Max Tegmark的警告发出后,政府委托评估表明AI可能代表“灭绝级威胁给人类,“按时间报道。
该出版物在3月份报道说,它收到了一份文件,警告AI研究构成了紧急和不断增加的国家安全危险,将其比喻为核武器的动荡。它显示了人工智能(AGI)的潜力,这是一种假设的技术,它可能会在五年内处理大多数活动。
三名研究人员写了“一项行动计划,以提高AI的安全和保障”,咨询了来自OpenAI,Google DeepMind,Anthropic和Meta的200多名政府官员,专家和工人。这些公司决策中偏斜的激励措施是有问题的。
关键建议包括禁止在新的联邦AI代理机构确定的计算机功率级别上进行AI模型培训。该机构将迫使AI企业在培训和部署新模型之前获得政府批准。该研究还表明,加强了AI芯片制造和出口规则,并增加了联邦对AI安全研究的支持。

调节AI的挑战
这些举措可能会遇到政治障碍。战略与国际研究中心WADHWANI AI和高级技术中心主任Greg Allen对实施这些建议的持怀疑态度,因为目前的政策偏爱透明度和监管而不是AI培训限制。
值得注意的是,Openai的超级对准团队负责管理超人的生存问题AI系统已经溶解,如Gizmodo先前报道。该团队的创始人伊利亚·萨特克弗(Ilya Sutskever)和扬·莱克(Jan Leike)同时辞职。
2023年7月,超级对象团队试图防止超人AI系统成为流氓。 Wired声称OpenAI将在其研究中包括该团队的职责。 OpenAI联合创始人John Schulman将领导有关高级AI模型危险的研究。
扬·莱克(Jan Leike)宣布了他在X(以前是Twitter)上的Openai辞职。他强调了与业务领导力的反复冲突,并在基本原则上以及该团队为获得重要研究的计算资源而努力。 Leike说,OpenAI必须优先考虑AI开发中的安全性,安全性和一致性。
